40 просмотров

Общие этические проблемы в области ИИ

меню

Предварительный обзор этических проблем, с которыми сталкивается ИИ, выявил шесть типов проблем, которые можно отнести к рабочим параметрам алгоритмов принятия решений и систем ИИ. Карта, воспроизведенная и адаптированная на рисунке 1, учитывает:

«алгоритмы принятия решений (1) превращают данные в доказательства для данного результата (далее вывод), и что этот результат затем используется для (2) запуска и мотивации действия, которое (само по себе или в сочетании с другими действиями) не может быть этически нейтральным. Эта работа выполняется сложным и (полу)автономным образом, что (3) усложняет распределение ответственности за последствия действий, управляемых алгоритмами».

Исходя из этих операционных характеристик, можно выделить три эпистемологических и два нормативных типа этических проблем на основе того, как алгоритмы обрабатывают данные для получения доказательств и мотивации действий. Предлагаемые пять типов проблем могут вызвать сбои с участием нескольких человеческих, организационных и технологических агентов. Это сочетание людей и технологических субъектов приводит к сложным вопросам, касающимся того, как распределить ответственность и ответственность за влияние поведения ИИ.Эти трудности отражены в прослеживаемости как заключительный, всеобъемлющий вид проблемы.

Типы проблем Типы проблем

Неубедительные доказательства

Когда алгоритмы делают выводы из данных, которые они обрабатывают, используя логическую статистику и/или методы машинного обучения, они производят вероятные, но неизбежно неопределенные знания. Статистическая теория обучения и вычислительная теория обучения связаны с характеристикой и количественной оценкой этой неопределенности. Статистические методы могут выявить значимые корреляции, но корреляций обычно недостаточно для демонстрации причинно-следственной связи и, следовательно, может быть недостаточно для мотивации действий на основе знания о такой связи. Концепция «полезного понимания» отражает неопределенность, присущую статистическим корреляциям, и нормативность выбора действия на их основе.

Статья в тему:  Что лучше большие данные или искусственный интеллект

Непостижимые доказательства

Когда данные используются в качестве (или обрабатываются) в качестве доказательства для вывода, разумно ожидать, что связь между данными и выводом должна быть понятной и открытой для проверки. Учитывая сложность и масштаб многих систем ИИ, разборчивость и тщательный анализ не могут считаться чем-то само собой разумеющимся. Отсутствие доступа к наборам данных и неотъемлемая сложность отображения того, как множество данных и функций, рассматриваемых системой ИИ, способствуют конкретным выводам и результатам, вызывают как практические, так и принципиальные ограничения.

Ошибочные доказательства

Алгоритмы обрабатывают данные и, следовательно, подвержены ограничению, общему для всех типов обработки данных, а именно тому, что результат никогда не может превышать ввод. Неформальный принцип «мусор на входе, мусор на выходе» иллюстрирует это явление и его значение: выводы могут быть настолько надежными (но также и нейтральными), насколько и данные, на которых они основаны.

Несправедливые результаты

Алгоритмически управляемые действия могут быть тщательно изучены с различных этических точек зрения, критериев и принципов.Нормативная приемлемость действия и его последствий зависит от наблюдателя и может быть оценена независимо от его эпистемологического качества. Действие может быть признано дискриминационным, например, исключительно из-за его воздействия на охраняемый класс людей, даже если оно совершено на основе убедительных, поддающихся проверке и обоснованных доказательств.

Преобразующие эффекты

Воздействие систем ИИ не всегда можно объяснить эпистемологическими или этическими ошибками. Большая часть их воздействия может изначально казаться этически нейтральной при отсутствии очевидного вреда. Отдельный набор воздействий, которые можно назвать трансформационными эффектами, касается тонких сдвигов в том, как концептуализируется и организуется мир.

Статья в тему:  Какой случай выиграет от объяснимого искусственного интеллекта

Отслеживаемость

В системах ИИ часто задействовано несколько агентов, среди которых могут быть разработчики и пользователи, производители и развертывающие организации, а также сами системы и модели. Системы ИИ также могут взаимодействовать напрямую, образуя многоагентные сети, характеризующиеся быстрым поведением, которые избегают надзора и понимания их коллег-людей из-за скорости, масштаба и сложности. Как было предложено в оригинальном ландшафтном исследовании Миттельштадта и др., «алгоритмы — это программные артефакты, используемые при обработке данных, и как таковые они наследуют этические проблемы, связанные с разработкой и доступностью новых технологий, а также проблемы, связанные с манипулированием большими объемами. персональных и иных данных». Все эти факторы означают, что трудно обнаружить вред, найти его причину и возложить вину, когда системы ИИ ведут себя неожиданным образом. Проблемы, возникающие в связи с любым из вышеупомянутых пяти типов проблем, могут, таким образом, вызвать связанную с этим проблему, касающуюся прослеживаемости, в которой необходимо установить как причину, так и ответственность за плохое поведение.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x