Укрепление доверия к искусственному интеллекту
Искусственный интеллект (ИИ) — это научная дисциплина, направленная на создание машин, способных выполнять множество задач, требующих человеческого интеллекта. ИИ появился более 60 лет назад и включает в себя два основных направления исследований. Один основан на правилах, логике и символах; это объяснимо; и он всегда находит правильное решение для данной проблемы, если эта проблема была правильно определена. Однако его можно использовать только тогда, когда можно предусмотреть все возможные сценарии рассматриваемой проблемы.
Другая область исследований основана на примерах, анализе данных и корреляции. Его можно применять в тех случаях, когда имеется неполное или нечеткое представление о решаемой проблеме. Однако этот тип ИИ требует большого количества данных, обычно менее объясним и всегда имеет небольшую погрешность. Эти два направления исследований и способы осмысления ИИ все чаще объединяются, чтобы максимизировать преимущества обоих и смягчить их недостатки.
В последние годы было создано множество успешных приложений ИИ, главным образом благодаря объединению улучшенных алгоритмов, огромных вычислительных мощностей и огромных объемов данных. Это предоставляет системам ИИ возможности восприятия на уровне человека, такие как преобразование речи в текст, понимание текста, интерпретация изображений и другие, для которых подходят методы машинного обучения. Эти возможности позволяют развертывать системы ИИ в реальных сценариях, которые обычно имеют высокую степень неопределенности.Тем не менее, современные приложения ИИ, ориентированные на потребителя, в которых пользователям предоставляется услуга — от навигационных систем до «умных» домов с голосовым управлением — едва касаются огромных возможностей, которые ИИ представляет для предприятий и других учреждений.
Основная цель того, что можно назвать корпоративным ИИ, состоит в том, чтобы расширить возможности людей и позволить людям принимать более эффективные, то есть более информированные и обоснованные решения. На данный момент ИИ и люди обладают очень взаимодополняющими возможностями, и именно объединение их возможностей дает наилучшие результаты. Типичными приложениями корпоративного ИИ являются системы поддержки принятия решений для врачей, преподавателей, операторов финансовых услуг и множества других специалистов, которым необходимо принимать сложные решения на основе большого количества данных.
Проблема доверия
Нетрудно заметить, что ИИ прочно войдет в нашу повседневную жизнь. Это, безусловно, принесет много пользы с точки зрения научного прогресса, благосостояния людей, экономической ценности и возможности поиска решений основных социальных и экологических проблем. Однако такая мощная технология также вызывает некоторые опасения, такие как ее способность принимать важные решения таким образом, который люди воспринимают как справедливые, осознавать и согласовывать человеческие ценности, имеющие отношение к решаемым проблемам, и способность объяснить свои рассуждения и решения. Поскольку многие успешные методы ИИ основаны на огромных объемах данных, важно знать, как данные обрабатываются системами ИИ и теми, кто их производит.
Эти проблемы входят в число препятствий, которые сдерживают ИИ или вызывают беспокойство у нынешних пользователей ИИ, последователей и политиков. Проблемы включают черный ящик некоторых подходов к ИИ, возможные дискриминационные решения, которые могут принимать алгоритмы ИИ, а также подотчетность и ответственность, когда система ИИ вовлечена в нежелательный результат.
Без ответов на эти вопросы многие не будут доверять ИИ и, следовательно, не будут полностью его внедрять и использовать его положительные возможности. Согласно новому исследованию, проведенному IBM Institute for Business Value, 82 процента всех предприятий и 93 процента высокоэффективных предприятий в настоящее время рассматривают возможность внедрения ИИ или продвигаются вперед, привлеченные способностью этой технологии увеличивать доходы, улучшать обслуживание клиентов и снижать затраты. , и управлять рисками.1 Однако, хотя они осознают огромные преимущества этой технологии, 60% этих компаний опасаются проблем с ответственностью, а 63% говорят, что им не хватает навыков для использования потенциала ИИ, согласно тому же исследованию2.
Принципы высокого уровня для ИИ
И исследователи, и политические мыслители борются с ранее упомянутыми вопросами. В результате этого продолжающегося обсуждения были определены и публично оценены несколько благородных руководящих принципов проектирования, разработки и использования ИИ:
- IBM’Принципы доверия и прозрачности:3,4 ИИ должен дополнять человеческий интеллект, а не заменять его, доверие является ключом к принятию, а политики в отношении данных должны быть прозрачными.
- GoogleПринципы ИИ в отношении ИИ: 5 ИИ должен защищать конфиденциальность и быть социально полезным, справедливым, безопасным и подотчетным людям.
- АсиломарПринципы ИИ:6 Эти 23 принципа, разработанные на конференции Asilomar 2017 года, охватывают исследования, этику и ценности в области ИИ, а также долгосрочные вопросы. Принципы были подписаны 1273 исследователями и 2541 другим заинтересованным лицом, включая Илона Маска и покойного Стивена Хокинга.
- Принципы Партнерство по ИИ(PAI):7 Восемь принципов открытой и совместной среды для обсуждения передового опыта ИИ, социальной ответственности компаний, предоставляющих ИИ, объяснимости ИИ и доверия. Каждый партнер, который хочет присоединиться к PAI, должен принять эти принципы.
- AI4PEOPLEпринципы и рекомендации:8 Конкретные рекомендации для европейских политиков по содействию развитию ИИ в Европе.
- Всемирный Экономический ФорумПринципы этического ИИ:9 Пять принципов, которые охватывают цель ИИ, его справедливость и понятность, защиту данных, право каждого использовать ИИ для своего благополучия, а также противодействие автономному оружию.
- Институт инженеров по электротехнике и электронике общие принципы:10 набор принципов, которые помещают ИИ в рамки прав человека со ссылками на благополучие, подотчетность, корпоративную ответственность, ценность по замыслу и этический ИИ.
Практическая реализация принципов высокого уровня
Такие принципы являются важным первым шагом, но за этими разговорами должны последовать конкретные действия по реализации жизнеспособных решений.
Объяснимость
Компании и пользователи хотят, чтобы системы искусственного интеллекта были прозрачными, объяснимыми, этичными, должным образом обученными с использованием соответствующих данных и свободными от предвзятости. Однако слишком часто имеющиеся в продаже системы искусственного интеллекта представляют собой непрозрачный черный ящик, предлагающий пользователям скудную информацию о базовых данных, процессах и логике, которые приводят к решениям системы. Наиболее успешные подходы к машинному обучению, например основанные на глубоком обучении, непрозрачны и не обеспечивают легкого доступа к процессу принятия решений. Это делает объяснимость сложной задачей, хотя предпринимаются некоторые попытки демистифицировать технологию, в том числе OpenScale от IBM.11
Осведомленность о предвзятости и смягчение ее последствий
Обнаружение и устранение предвзятости также имеют основополагающее значение для достижения доверия к ИИ. Предвзятость может быть введена через обучающие данные, когда они недостаточно сбалансированы и инклюзивны, но она также может быть внедрена в модель ИИ многими другими способами. Более того, среди множества понятий справедливости важно выбрать наиболее подходящее с учетом конкретного контекста приложения.Также важно помочь разработчикам узнать о том, что доступно и может быть использовано в современных системах искусственного интеллекта, из-за обилия показателей предвзятости, представлений о справедливости, а также алгоритмов устранения и обнаружения предвзятости. Мировое сообщество ученых и разработчиков данных может и должно продолжать улучшать эти возможности совместными усилиями. С этой целью IBM предоставила сообществу открытого исходного кода набор инструментов под названием «AI Fairness 360», который помогает разработчикам и специалистам по данным проверять и устранять предвзятость в моделях ИИ с помощью решений по устранению предвзятости и поддерживать их с помощью руководств, наборов данных, руководства, метрики и алгоритмы.12
Доверяйте производителям ИИ
Доверие к технологии должно дополняться доверием к тем, кто ее производит. Тем не менее такое доверие можно завоевать только в том случае, если компании прозрачны в отношении своей политики использования данных и выбора дизайна, сделанного при проектировании и разработке новых продуктов. Если данные необходимы, чтобы помочь ИИ принимать более правильные решения, важно, чтобы человек, предоставляющий данные, знал, как обрабатываются его/ее данные, где они хранятся и как используются. Такие нормативные акты, как Общий регламент по защите данных (GDPR) в Европе, предусматривают некоторые основные права на персональные данные.13 Помимо производительности и точности, следует также четко сообщать об определении предвзятости и методах обнаружения и смягчения последствий, а также описывать и делать доступными для всех пользователей возможности объяснимости. .
Хорошая новость заключается в том, что индустрия начинает предлагать такие решения. Например, ученые-исследователи и инженеры IBM выпустили набор функций доверия и прозрачности для ИИ, основанных на трех основных принципах: объяснимость, справедливость и отслеживаемость. Эти программные инструменты обеспечивают объяснимость и обнаружение предвзятости в моделях ИИ в режиме реального времени, выявляя потенциально несправедливые результаты и автоматически рекомендуя данные для добавления в модель, чтобы помочь уменьшить предвзятость.
Представьте себе страховую компанию, которая ищет непреднамеренную предвзятость в своем процессе обнаружения мошенничества с претензиями на основе искусственного интеллекта. Используя эти инструменты, компания может отмечать расхождения между нормальным и фактическим уровнем одобрения, выявлять любую предвзятость, влияющую на решение, и выделять факторы, которые могут повлиять на то, почему претензия была отклонена. Инструментарий также показывает меру уверенности системы в рекомендации и факторы, лежащие в основе этого уровня уверенности. Система также автоматически порекомендует добавить определенные виды данных, чтобы помочь уменьшить случаи предвзятости в будущем.
Кроме того, компаниям, работающим в строго регулируемых отраслях, часто требуется обширная информация о процессах принятия решений их системами ИИ. Возможность отслеживать точность, производительность и честность их приложений, а также записывать эту информацию может обеспечить такой уровень детализации для целей соответствия, подотчетности или обслуживания клиентов. С этой целью IBM предложила идею «информационного бюллетеня ИИ», в котором разработчики должны записывать все проектные решения и характеристики производительности разработанной системы ИИ, от алгоритмов обработки смещения до обучающих наборов данных и инструментов объяснимости. и т. д.14 Кроме того, чтобы помочь разработчикам и дизайнерам задуматься над этими проблемами, IBM выпустила буклет под названием «Повседневная этика для искусственного интеллекта», чтобы повысить осведомленность разработчиков и дизайнеров по этим темам и помочь им думать и находить решения для способности, связанные с доверием, в их повседневной работе.15
Управление и содействие надежному ИИ
Также необходимо тесное сотрудничество с политиками и регулирующими органами. В ЕС Европейская комиссия использует многосторонний подход к содействию ответственной разработке и внедрению ИИ.В дополнение к государственным инвестициям в исследования и продвижению государственно-частного партнерства, ЕС объединил экспертов из различных дисциплин в Европейскую группу экспертов высокого уровня по искусственному интеллекту, членом которой я являюсь, которой поручено разработать этические принципы, которые будут учитывать принципы таких как ценности, объяснимость, прозрачность и предвзятость, а также с рекомендацией политик, включающих финансирование и инфраструктуру для поддержки ИИ в Европе. В Соединенных Штатах некоторые призвали ввести правила, ограничивающие разработку и использование ИИ, хотя комплексного подхода, позволяющего понять, каким может быть правильный подход для американской среды, пока не существует.
Помимо жестких законов, существует множество способов, которыми мощные технологии, такие как ИИ, могут быть направлены на благотворное воздействие, например стандарты, распространение передового опыта и руководств, а также стимулы. Я считаю, что все эти инструменты следует использовать для достижения упреждающего и основанного на участии подхода, при котором как производители ИИ, так и пользователи ИИ могут иметь право голоса.
Пример конкретных рекомендаций для политиков включен в ранее упомянутый информационный документ AI4PEOPLE, соавтором которого я являюсь, где принципы и ценности высокого уровня отображены в конкретные рекомендации для потенциальных действий, которым могут следовать политики ЕС.16 Эти рекомендации охватывают такие вопросы, как широкие, такие как: оценка возможностей технологии и учреждений, ее использующих; необходимость объяснимости и прозрачности, возможно, поддерживаемых механизмами аудита; разработка процессов возмещения ущерба или компенсации; потребность в соответствующих показателях надежности ИИ; создание нового надзорного органа ЕС, ответственного за защиту общественного благосостояния посредством оценки и надзора за ИИ; создание финансовых стимулов для междисциплинарной деятельности и этического ИИ; и поддержка образовательных программ, которые охватывают социальные и правовые последствия ИИ.
Вывод
ИИ — это мощная технология, которая окажет огромное положительное влияние на нашу жизнь. Однако, чтобы в полной мере оценить его потенциальные преимущества, нам необходимо создать систему доверия как к технологии, так и к тем, кто ее производит. Вопросы предвзятости, объяснимости, обработки данных, прозрачности политик данных и выбора дизайна следует решать ответственно и открыто. Наполняя продукты ИИ надежными и проверенными возможностями обнаружения и смягчения предвзятости, а также способностью объяснять, как принимаются их решения, разработчики ИИ могут преодолеть разрыв в доверии и создать эффективный путь для экономического роста и общественной пользы. С разработкой нескольких высокоуровневых принципов, направленных на то, чтобы ИИ оказал положительное влияние, пришло время заставить эти принципы работать и создать надежные механизмы реализации. Только целостный, междисциплинарный и многосторонний подход может создать такую систему доверия, которая должна включать создателей ИИ, пользователей ИИ и лиц, определяющих политику. Эта система может обеспечить выявление, обсуждение и решение проблем в среде сотрудничества. Именно такой междисциплинарный и совместный подход позволит найти наилучшие решения и, скорее всего, приведет к созданию всеобъемлющей среды для надежного искусственного интеллекта.
Франческа Росси является глобальным лидером по этике искусственного интеллекта в IBM Research, профессором компьютерных наук в Университете Падуи, Италия (в отпуске), и членом Экспертной группы высокого уровня Европейской комиссии по искусственному интеллекту.