10 просмотров

Этика и ИИ: ускоренный курс

Изображение+от+iOS+%281%29.jpg

Оксфордские идеи

Зайдите на любой начальный курс по этике, и вы увидите, как ученые-философы преподают своим студентам три теории о том, что значит быть этичным:

  1. Утилитаризм: приводит ли действие к чистым положительным последствиям?;
  2. Деонтология: следует ли действие моральному правилу? например Золотое правило: «Относись к другим так, как хочешь, чтобы относились к тебе»;
  3. Этика добродетели: Способствует ли действие добродетели (что бы это ни значило — вините Аристотеля)?

Этические практики, с другой стороны, будут быстры, чтобы сказать вам, что мир не работает так аккуратно.

Немного философии

Давайте применим эти теории к ИИ.Государственный служащий в Министерстве образования пытается решить, позволять ли компьютеру предсказывать детей, которым может угрожать отставание в школе. Тогда мы могли бы спросить: «Приносит ли автоматизация этого процесса чистую пользу?» Ответ, по-видимому, будет утвердительным: чем больше детей мы сможем идентифицировать как находящихся в группе риска, тем большему количеству детей мы сможем помочь.

Одна потенциальная проблема заключается в том, что может быть несколько детей, которые ошибочно идентифицированы как находящиеся в группе риска из-за разрозненных данных, введенных в автоматизированную программу, но общий чистый произведенный продукт по-прежнему кажется положительным.

Давайте посмотрим на обратную сторону: как насчет детей, которые не попали в наши списки «группы риска» из-за разрозненных данных? Чистые выгоды от автоматизации все еще могут быть положительными, но люди могут промахнуться (и это общая проблема с автоматизированными процессами)!

Статья в тему:  Кому принадлежат авторские права на произведения, созданные искусственным интеллектом

Так что теперь кажется, что теория чистого блага сама по себе не поможет нам определить, следует ли нам автоматизировать. Так что эта первая теория, похоже, не решает полностью наши этические загадки.

Теперь давайте спросим, ​​соответствует ли автоматизация прогнозирования детей из групп риска золотому правилу. Эта этическая основа, кажется, производит решительное «нет» (по крайней мере, для большинства из нас). Интуитивно мы не хотели бы, чтобы наших детей классифицировали и навешивали ярлыки в соответствии с безличными точками данных.

Теперь у нас есть два противоречивых ответа из разных этических теорий. Один говорит: «Да, автоматизируй», другой говорит: «Нет, не надо».

Философов не удивляет, что утилитаризм и деонтология часто дают моральные ответы; некоторые из величайших моральных загадок философии были придуманы, чтобы подчеркнуть это несоответствие. Но что мы делаем, принимая реальное политическое решение? Если я утилитарист, а мой начальник — деонтолог, как мы решим, этично ли автоматизировать?

На это есть несколько ответов. Во-первых, мы могли бы сказать, что этика — не единственное соображение, и мы должны думать о затратах, ресурсах и эффективности.Таким образом, этика отодвигается на второй план — или мы выбираем этическую теорию, которая наиболее соответствует нашим экономическим рассуждениям и оправдывает нашу моральную рациональность. постфактум. Однако, во-вторых, мы могли бы разозлить пуристов-философов, разработав структуру, позволяющую более целостно оценивать решения по автоматизации.

Статья в тему:  Каковы последние разработки в области искусственного интеллекта

Это подводит нас к третьей моральной теории: этике добродетели.

ИИ и добродетель: странные партнеры

Добродетель — это понятие, которое в значительной степени вышло из нашего нерелигиозного словаря. В философии эта идея примерно означает моральное совершенство и человеческое процветание. Так что вопрос о том, как машина может способствовать этому. Но, возможно, если компьютер сможет идентифицировать детей, которые рискуют не раскрыть свой потенциал в полной мере, мы сможем доказать, что автоматизация может способствовать добродетели. Однако этика добродетели уделяет большое внимание обучению на основе опыта, а компьютер, кажется, отнимает это.

Еще одна характеристика, которую подчеркивает этика добродетели, — это идея «всесторонности»: человек может быть добродетельным только тогда, когда он хорошо развит во всех отношениях. Итак, в отличие от утилитаризма и деонтологии, где достаточно, чтобы сделать вас нравственным человеком, если вы делаете одну вещь нравственно, вы не можете быть нравственным в соответствии с этикой добродетели, просто делая одно доброе дело. Вы должны постоянно делать что-то хорошо и с добрым сознанием, и это воспитывает добродетельный нравственный характер.

На первый взгляд кажется, что это совсем не относится к нашему конкретному случаю выявления учащихся из групп риска.

Так как же это может относиться к машинам?

Новый взгляд на этику ИИ

Долгое время этика ИИ была утилитарной. Специалисты по этике предписывают смотреть на последствия, которые может вызвать автоматизация, и мы решаем, была ли автоматизация этичной, основываясь на результатах.

Статья в тему:  Как искусственный интеллект изменил баскетбол

Сейчас становится модным рассматривать этику ИИ с деонтологической точки зрения. «Три закона робототехники» Азимова — отличный пример поп-культуры того, как мы можем начать думать о роли этических обязанностей, когда речь идет об ИИ. Проблема в том, что, как указывает политолог Питер Сингер, «никакая технология пока не может воспроизвести законы Азимова внутри машины». Мы не можем запрограммировать компьютерную программу так, чтобы она никому не навредила.

Вместо этого я предлагаю начать смотреть на процесс более целостно. Как выразился один из моих коллег по ОИ (у которого также есть склонность к философии), «машине недостаточно хорошо выполнять свою самую непосредственную задачу». Он должен быть разработан в добродетельном духе».

Автоматизация — это процесс. Это включает в себя входы, собственно автоматика процесс, а также выходы. В то время как утилитаризм и деонтология рассматривают решения индивидуально, вместо этого я предлагаю применить процессный подход к этике ИИ, когда мы разбиваем окончательное решение на составные части и оцениваем их каждую. Так что, возможно, этика добродетели ИИ должна заставить нас смотреть на процесс, который окружает ИИ, а не на последствия выходных данных машины или правила, которые управляют или его поведением. Это возвращает нас к человеческой стороне вещей — именно это принципиально рекомендует этика добродетели.

голоса
Рейтинг статьи
Статья в тему:  Почему пролог используется в искусственном интеллекте
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x