9 просмотров

9 основных этических дилемм ИИ и способы их решения

Этика ИИ и этические дилеммы

Хотя искусственный интеллект меняет то, как работает бизнес, есть опасения, как он может повлиять на нашу жизнь. Это не только академическая или общественная проблема, но и репутационный риск для компаний, ни одна компания не хочет быть омраченной скандалами с данными или этикой ИИ, которые затронули такие компании, как Amazon. Например, была значительная негативная реакция из-за продажи Rekognition правоохранительным органам. За этим последовало решение Amazon прекратить предоставление этой технологии правоохранительным органам на год, поскольку они ожидают, что к тому времени будет создана надлежащая правовая база.

В этой статье представлены сведения об этических проблемах, возникающих при использовании ИИ, примеры неправильного использования ИИ и рекомендации по созданию ответственного ИИ:

Каковы этические дилеммы искусственного интеллекта?

Автоматизированные решения / предвзятость ИИ

Все алгоритмы и обучающие данные могут содержать предубеждения, как и люди, поскольку они также генерируются людьми. Эти предубеждения мешают системам ИИ принимать справедливые решения. Мы сталкиваемся с предубеждениями в системах ИИ по двум причинам.

  1. Разработчики могут программировать предвзятые системы ИИ, даже не замечая этого.
  2. Исторических данных, которые будут обучать алгоритмы ИИ, может быть недостаточно для справедливого представления всего населения.

Предвзятые алгоритмы ИИ могут привести к дискриминации групп меньшинств. Например, Amazon закрыла инструмент для набора персонала с помощью ИИ после того, как использовала его в течение одного года. Разработчики Amazon заявляют, что этот инструмент наказывал женщин. Около 60% кандидатов, выбранных инструментом ИИ, были мужчинами, что было связано с закономерностями в данных о найме на работу в Amazon за прошлые периоды.

Статья в тему:  Что будет после искусственного интеллекта

Чтобы создать этичный и ответственный ИИ, необходимо избавиться от предубеждений в системах ИИ. Тем не менее, только 47% организаций проверяют данные, модели и использование алгоритмов на предвзятость.

Хотя избавиться от всех предубеждений в системах ИИ практически невозможно из-за существующих многочисленных человеческих предубеждений и постоянного выявления новых предубеждений, их минимизация может быть целью бизнеса.

Автономные вещи

Автономные вещи (AuT) — это устройства и машины, которые выполняют определенные задачи автономно без участия человека. К таким машинам относятся беспилотные автомобили, дроны и робототехника. Поскольку этика роботов — обширная тема, мы сосредоточимся на неэтичных проблемах, возникающих в связи с использованием беспилотных транспортных средств и дронов.

Беспилотные автомобили

Рынок автономных транспортных средств оценивался в 54 миллиарда долларов в 2019 году и, по прогнозам, достигнет 557 миллиардов долларов к 2026 году. Однако автономные транспортные средства представляют различные риски для этических принципов ИИ. Люди и правительства по-прежнему ставят под сомнение ответственность и подотчетность автономных транспортных средств.

Например, в 2018 году беспилотный автомобиль Uber сбил пешехода, который позже скончался в больнице. Авария была зарегистрирована как первая смерть с участием беспилотного автомобиля. После расследования Департамента полиции Аризоны и Национального совета по безопасности на транспорте США (NTSB) прокуратура решила, что компания не несет уголовной ответственности за смерть пешехода. Это связано с тем, что водитель безопасности отвлекся на свой мобильный телефон, и в отчетах полиции авария отмечена как «полностью предотвратимая».

Статья в тему:  Что пугает людей в искусственном интеллекте

Летальное автономное оружие (LAW)

LAW — одно из орудий в гонке вооружений искусственного интеллекта. LAW самостоятельно идентифицируют и атакуют цели на основе запрограммированных ограничений и описаний. Были дебаты об этичности использования вооруженного ИИ в вооруженных силах. Например, в 2018 году Организация Объединенных Наций собралась, чтобы обсудить этот вопрос. В частности, страны, поддерживающие ЗАКОНЫ, высказались по этому вопросу. (Включая Южную Корею, Россию и Америку.)

Контраргументы в пользу использования ЗАКОНОВ широко распространены среди неправительственных сообществ. Например, сообщество под названием «Кампания по остановке роботов-убийц» написало письмо с предупреждением об угрозе гонки вооружений искусственного интеллекта. Некоторые известные лица, такие как Стивен Хокинг, Илон Маск, Стив Возняк, Ноам Хомский, Яан Таллинн и Демис Хассабис, также подписали письмо.

Безработица из-за автоматизации

В настоящее время это самый большой страх перед ИИ. Согласно опросу CNBC, 27% граждан США считают, что искусственный интеллект сократит их рабочие места в течение пяти лет. Процент увеличивается до 37% для граждан в возрасте от 18 до 24 лет.

Хотя эти цифры могут не показаться огромными для «самого большого страха ИИ», не забывайте, что это всего лишь прогноз на ближайшие пять лет.

По оценкам Mckinsey, к 2030 году интеллектуальные агенты и роботы могут заменить до 30% нынешнего человеческого труда в мире.В зависимости от различных сценариев внедрения, автоматизация заменит от 400 до 800 миллионов рабочих мест, а 375 миллионов человек должны полностью сменить категорию работы.

Статья в тему:  Что такое скрипт в искусственном интеллекте

Сравнение 5-летних ожиданий общества и прогноза Mckinsey на 10 лет показывает, что ожидания людей в отношении безработицы более выражены, чем оценки отраслевых экспертов. Однако оба они указывают на то, что значительная часть населения не имеет работы из-за достижений в области искусственного интеллекта.

Злоупотребление ИИ

Практика наблюдения, ограничивающая конфиденциальность

"Большой брат следит за тобой." Это была цитата из антиутопического научно-фантастического романа Джорджа Оруэлла «1984». Хотя он был написан как научная фантастика, он мог стать реальностью, когда правительства используют ИИ для массового наблюдения. Внедрение технологии распознавания лиц в системы наблюдения касается прав на неприкосновенность частной жизни.

Согласно индексу AI Global Surveillance (AIGS), 176 стран используют системы наблюдения AI, а либеральные демократии являются основными пользователями наблюдения AI. То же исследование показывает, что 51% стран с развитой демократией развертывают системы наблюдения с использованием ИИ по сравнению с 37% закрытых автократических государств. Однако это, вероятно, связано с разрывом в уровне благосостояния между этими двумя группами стран.

С этической точки зрения важный вопрос заключается в том, злоупотребляют ли правительства этой технологией или используют ее на законных основаниях. «Оруэлловские» методы слежки противоречат правам человека.

Некоторые технологические гиганты также заявляют об этических опасениях в отношении наблюдения с использованием ИИ. Например, президент Microsoft Брэд Смит опубликовал в блоге сообщение с призывом к государственному регулированию системы распознавания лиц. Кроме того, IBM прекратила предлагать технологию для массовой слежки из-за ее возможности неправомерного использования, такого как расовое профилирование, которое нарушает основные права человека.

Статья в тему:  Какие типы степеней нужны для искусственного интеллекта

Манипуляции человеческим суждением

Аналитика на основе ИИ может дать полезную информацию о человеческом поведении, однако злоупотребление аналитикой для манипулирования человеческими решениями является этически неправильным.Самый известный пример неправомерного использования аналитики — скандал с данными Facebook и Cambridge Analytica.

Cambridge Analytica продавала данные об американских избирателях, собранные в Facebook, политическим кампаниям и оказывала помощь и аналитику президентским кампаниям Теда Круза и Дональда Трампа в 2016 году. Информация об утечке данных была раскрыта в 2018 году, и Федеральная торговая комиссия оштрафовала Facebook на 5 миллиардов долларов из-за нарушения конфиденциальности.

Распространение дипфейков

Дипфейки — это искусственно сгенерированные изображения или видео, в которых человек в медиа заменен чьим-то подобием.

Хотя около 96 % дипфейков являются порнографическими видео с более чем 134 миллионами просмотров на четырех самых популярных порносайтах, посвященных дипфейкам, реальная опасность и этические опасения общества по поводу дипфейков связаны с тем, как их можно использовать для искажения речей политических лидеров.

Создание ложного повествования с использованием дипфейков может подорвать доверие людей к СМИ (которое и без того находится на низком уровне). Это недоверие опасно для общества, учитывая, что средства массовой информации по-прежнему являются средством номер один для информирования населения о чрезвычайных ситуациях (например, пандемии).

Искусственный общий интеллект (AGI) / Сингулярность

Машина, способная понимать на человеческом уровне, может представлять угрозу для человечества, и такие исследования могут нуждаться в регулировании. Хотя большинство экспертов по ИИ не ожидают сингулярности (AGI) в ближайшее время (до 2060 года), по мере расширения возможностей ИИ это важная тема с этической точки зрения.

Статья в тему:  Каковы положительные эффекты искусственного интеллекта

Когда люди говорят об ИИ, они в основном имеют в виду узкие системы ИИ, также называемые слабыми ИИ, которые предназначены для решения одной или ограниченной задачи. С другой стороны, ОИИ — это форма искусственного интеллекта, которую мы видим в научно-фантастических книгах и фильмах. ОИИ означает, что машины могут понять или изучить любую интеллектуальную задачу, которую может выполнить человек.

Этика роботов

Этика роботов, также называемая роботоэтикой, включает в себя то, как люди проектируют, строят, используют и обращаются с роботами.Дебаты о роботоэтике ведутся с начала 1940-х годов. И споры в основном возникают из-за того, есть ли у роботов такие же права, как у людей и животных. Эти вопросы приобрели все большее значение с расширением возможностей ИИ, и теперь такие институты, как AI Now, сосредоточены на изучении этих вопросов с академической строгостью.

Писатель Айзек Азимов — первый, кто заговорил о законах для роботов в своем рассказе «Обход». Он представил три закона робототехники:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться приказам, отдаваемым людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону.

Как ориентироваться в этих дилеммах?

Это трудные вопросы, и для их решения могут потребоваться инновационные и противоречивые решения, такие как универсальный базовый доход. Существует множество инициатив и организаций, направленных на минимизацию потенциального негативного воздействия ИИ. Например, Институт этики искусственного интеллекта (IEAI) Мюнхенского технического университета проводит исследования в области ИИ в различных областях, таких как мобильность, трудоустройство, здравоохранение и устойчивость.

Статья в тему:  Какие классы помогают в изучении искусственного интеллекта

Некоторые передовые методы решения этих этических дилемм:

Прозрачность

Разработчики ИИ несут этическое обязательство быть прозрачными в структурированном и доступном виде, поскольку технология ИИ может нарушать законы и негативно влиять на человеческий опыт. Чтобы сделать ИИ доступным и прозрачным, может помочь обмен знаниями. Некоторые инициативы:

  • Исследования ИИ, даже если они проводятся в частных коммерческих компаниях, как правило, публикуются публично.
  • OpenAI — это некоммерческая исследовательская компания в области искусственного интеллекта, созданная Илоном Маском, Сэмом Альтманом и другими для разработки искусственного интеллекта с открытым исходным кодом, полезного для человечества. Однако, продав
    одной из своих эксклюзивных моделей для Microsoft, вместо того, чтобы публиковать исходный код, OpenAI снизила уровень прозрачности.
  • Google разработал TensorFlow, широко используемую библиотеку машинного обучения с открытым исходным кодом, чтобы облегчить внедрение ИИ.
  • Исследователи ИИ Бен Герцель и Дэвид Харт создали OpenCog как платформу с открытым исходным кодом для разработки ИИ.
  • У Google (и других технологических гигантов) есть блог, посвященный искусственному интеллекту, который позволяет им распространять свои знания об искусственном интеллекте по всему миру.

Объяснимость

Разработчики ИИ и предприятия должны объяснить, как их алгоритмы приходят к их прогнозам, чтобы преодолеть этические проблемы, возникающие с неточными прогнозами. Различные технические подходы могут объяснить, как эти алгоритмы приходят к таким выводам и какие факторы повлияли на решение. Мы уже рассматривали объяснимый ИИ, не стесняйтесь проверить его.

Статья в тему:  Каковы факторы искусственного интеллекта

Инклюзивность

Исследования ИИ, как правило, проводятся исследователями-мужчинами в богатых странах. Это способствует предвзятости в моделях ИИ. Увеличение разнообразия сообщества ИИ является ключом к улучшению качества модели и уменьшению систематической ошибки. Существует множество инициатив, подобных этой, поддерживаемых Гарвардом для увеличения разнообразия в сообществе, но их влияние до сих пор было ограниченным.

Это может помочь решить такие проблемы, как безработица и дискриминация, которые могут быть вызваны автоматизированными системами принятия решений.

Выравнивание

Многие страны, компании и университеты создают системы ИИ, и в большинстве областей нет правовой базы, адаптированной к последним разработкам в области ИИ. Модернизация правовой базы как на уровне страны, так и на более высоком уровне (например, ООН) прояснит путь к этичному развитию ИИ. Компании-новаторы должны возглавить эти усилия, чтобы внести ясность в свою отрасль.

Если вы ищете поставщиков ИИ, проверьте наши основанные на данных списки:

  • Платформы ИИ
  • Консультанты по ИИ
  • Услуги по разработке ИИ

А если вам нужно экспертное мнение о производителях и продуктах, смело обращайтесь к нам:

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x