0 просмотров

Предвзятость в ИИ: что это такое, виды, примеры и 6 способов исправить

Интерес к AI Bias согласно Google Trends.

Интерес к искусственному интеллекту (ИИ) растет по мере того, как все больше людей и компаний убеждаются в его преимуществах в различных вариантах использования.Однако есть и некоторые обоснованные опасения, связанные с технологией ИИ:

  • Будет ли ИИ угрозой для человечества? Для этого ИИ сначала нужно превзойти человеческий интеллект. Эксперты не ожидают, что это произойдет в ближайшие 30-40 лет.
  • Будет ли ИИ угрожать нашим рабочим местам? Да, к 2030 году 44% работников с низким уровнем образования будут подвергаться риску технологической безработицы.
  • Можем ли мы доверять суждениям систем ИИ? Пока нет, технология искусственного интеллекта может унаследовать человеческие предубеждения из-за предубеждений в обучающих данных.

В этой статье мы сосредоточимся на предвзятости ИИ и ответим на все важные вопросы, касающиеся предубеждений в алгоритмах искусственного интеллекта, от типов и примеров предубеждений ИИ до устранения этих предубеждений в алгоритмах ИИ.

Статья в тему:  Каковы ограничения искусственного интеллекта

Что такое предвзятость ИИ?

Смещение ИИ — это аномалия на выходе алгоритмов машинного обучения из-за предвзятых предположений, сделанных в процессе разработки алгоритма, или предубеждений в обучающих данных.

Каковы типы предвзятости ИИ?

Системы ИИ содержат предубеждения по двум причинам:

  • Когнитивные искажения: Это бессознательные ошибки мышления, которые влияют на суждения и решения людей. Эти предубеждения возникают из-за попытки мозга упростить обработку информации о мире. Психологи определили и классифицировали более 180 человеческих предубеждений. Когнитивные предубеждения могут проникнуть в алгоритмы машинного обучения либо через
    • дизайнеры по незнанию знакомят их с моделью
    • набор обучающих данных, который включает в себя эти предубеждения

    Рис. 1. Неравенство и дискриминация при разработке и использовании ИИ в приложениях для здравоохранения

    Избавление ИИ и машинного обучения от предвзятости требует учета их многочисленных применений.

    Станет ли когда-нибудь ИИ полностью беспристрастным?

    Технически, да. Система ИИ может быть настолько хороша, насколько хороши ее входные данные. Если вы сможете очистить свой набор данных для обучения от сознательных и бессознательных предположений о расе, поле или других идеологических концепциях, вы сможете создать систему ИИ, которая будет принимать беспристрастные решения на основе данных.

    Однако в реальном мире мы не ожидаем, что ИИ когда-либо станет полностью беспристрастным в ближайшее время из-за того же аргумента, который мы привели выше.ИИ может быть так же хорош, как и данные, а люди — это те, кто создает данные. Существует множество человеческих предубеждений, и постоянное выявление новых предубеждений постоянно увеличивает их общее число. Следовательно, может быть невозможно иметь полностью беспристрастный человеческий разум, как это делает система ИИ. В конце концов, люди создают предвзятые данные, в то время как люди и созданные человеком алгоритмы проверяют данные, чтобы выявить и устранить предвзятость.

    Что мы можем сделать с предвзятостью ИИ, так это свести ее к минимуму, тестируя данные и алгоритмы и разрабатывая системы ИИ с учетом ответственных принципов ИИ.

    Как исправить предубеждения в алгоритмах искусственного интеллекта и машинного обучения?

    Во-первых, если ваш набор данных завершен, вы должны признать, что предубеждения ИИ могут возникать только из-за предубеждений человечества, и вам следует сосредоточиться на удалении этих предубеждений из набора данных. Однако это не так просто, как кажется.

    Наивный подход заключается в удалении защищенных классов (таких как пол или раса) из данных и удалении меток, которые делают алгоритм предвзятым. Тем не менее, этот подход может не сработать, поскольку удаленные метки могут повлиять на понимание модели, а точность ваших результатов может ухудшиться.

    Таким образом, нет быстрых решений для устранения всех предубеждений, но есть рекомендации высокого уровня от консультантов, таких как McKinsey, в которых освещаются передовые методы минимизации предубеждений ИИ:

    Как свести к минимуму предвзятость ИИ

    Шаги по устранению предвзятости в системах ИИ:

    1. Понять алгоритм и данные оценить, где высок риск несправедливости. Например:
      • Изучите набор обучающих данных для того, является ли он репрезентативным и достаточно большим, чтобы предотвратить распространенные систематические ошибки, такие как систематическая ошибка выборки.
      • Провести анализ субпопуляций который включает в себя расчет показателей модели для определенных групп в наборе данных. Это может помочь определить, одинакова ли производительность модели в подгруппах.
      • Следите за моделью с течением времени против предубеждений. Результат алгоритмов ML может меняться по мере их обучения или изменения обучающих данных.
    2. Установите стратегию устранения предубеждений в рамках вашей общей стратегии ИИ, которая содержит набор технических, операционных и организационных действий:
      • Техническая стратегия включает в себя инструменты, которые могут помочь вам определить потенциальные источники систематической ошибки и выявить особенности данных, влияющие на точность модели.
      • Оперативные стратегии включают улучшение процессов сбора данных с использованием внутренних «красных команд» и сторонних аудиторов. Вы можете найти больше практик из исследования справедливости Google AI.
      • Организационная стратегия включает в себя создание рабочего места, где метрики и процессы прозрачно представлены
    3. Улучшайте управляемые человеком процессы по мере выявления ошибок в обучающих данных. Построение и оценка модели могут выявить предубеждения, которые долгое время оставались незамеченными. В процессе построения моделей ИИ компании могут выявлять эти предубеждения и использовать эти знания для понимания причин предубеждений. Благодаря обучению, разработке процессов и культурным изменениям компании могут улучшить фактический процесс, чтобы уменьшить предвзятость.
    4. Определите варианты использования, в которых следует отдавать предпочтение автоматизированному принятию решений. и когда люди должны быть вовлечены.
    5. Следуйте мультидисциплинарному подходу. Исследования и разработки являются ключом к минимизации предвзятости в наборах данных и алгоритмах. Устранение предвзятости — это междисциплинарная стратегия, в которой участвуют специалисты по этике, социологи и эксперты, которые лучше всех понимают нюансы каждой прикладной области в процессе. Поэтому компаниям следует стремиться включать таких экспертов в свои проекты ИИ.
    6. Разнообразьте свою организацию. Разнообразие сообщества ИИ облегчает выявление предубеждений. Люди, которые первыми замечают проблемы предвзятости, в основном являются пользователями, принадлежащими к этому конкретному сообществу меньшинств. Таким образом, поддержание разнообразной команды ИИ может помочь вам смягчить нежелательные предубеждения ИИ.

    Ориентированный на данные подход к разработке ИИ также может помочь свести к минимуму предвзятость в системах ИИ.

    Инструменты для уменьшения предвзятости

    Справедливость ИИ 360

    IBM выпустила библиотеку с открытым исходным кодом для обнаружения и устранения погрешностей в алгоритмах обучения без учителя, в которой в настоящее время (по состоянию на сентябрь 2020 г.) участвуют 34 участника на Github. Библиотека называется AI Fairness 360 и позволяет программистам ИИ

    • проверяйте погрешности в моделях и наборах данных с помощью полного набора метрик.
    • смягчить предубеждения с помощью 12 упакованных алгоритмов, таких как представление справедливого обучения, классификация вариантов отклонения, устранение разрозненных воздействий.

    Однако алгоритмы обнаружения и устранения предвзятости AI Fairness 360 предназначены для задач бинарной классификации, поэтому, если ваша проблема более сложна, ее необходимо расширить до задач мультикласса и регрессии.

    IBM Watson OpenScale

    Watson OpenScale от IBM выполняет проверку смещения и его устранение в режиме реального времени, когда ИИ принимает решения.

    Инструмент «Что, если» от Google

    С помощью инструмента «Что, если» вы можете тестировать производительность в гипотетических ситуациях, анализировать важность различных функций данных и визуализировать поведение модели для нескольких моделей и подмножеств входных данных, а также для различных показателей справедливости машинного обучения.

    Каковы некоторые примеры предвзятости ИИ?

    Устранение выделенных акцентов в колл-центрах

    Стартап Sanas из Сан-Франциско разработал систему перевода акцента на основе искусственного интеллекта, чтобы работники колл-центра со всего мира звучали более знакомо американским клиентам. Инструмент преобразует акцент говорящего в «нейтральный» американский акцент в режиме реального времени. Как сообщает SFGATE, президент Sanas Марти Сарим говорит, что акценты — это проблема, потому что они «вызывают предвзятость и непонимание».

    Расовые предубеждения нельзя устранить, заставив всех звучать как белые и американцы. Напротив, это усугубит эти предубеждения, поскольку неамериканские работники колл-центра, которые не используют эту технологию, столкнутся с еще большей дискриминацией, если белый американский акцент станет нормой.

    Предвзятый инструмент рекрутинга Amazon

    Мечтая автоматизировать процесс найма, Amazon в 2014 году запустила проект искусственного интеллекта.Их проект был основан исключительно на просмотре резюме соискателей и оценке соискателей с использованием алгоритмов на базе искусственного интеллекта, чтобы рекрутеры не тратили время на ручные задачи проверки резюме. Однако к 2015 году Amazon осознала, что их новая система найма на основе ИИ несправедливо оценивает кандидатов и демонстрирует предвзятость в отношении женщин.

    Amazon использовала исторические данные за последние 10 лет для обучения своей модели ИИ. Исторические данные содержали предубеждения против женщин, поскольку в технологической отрасли преобладали мужчины, а мужчины составляли 60% сотрудников Amazon. Поэтому рекрутинговая система Amazon неправильно поняла, что кандидаты-мужчины предпочтительнее. Он штрафовал резюме, включавшие слово «женское», например, «капитан женского шахматного клуба». Поэтому Amazon перестала использовать алгоритм для рекрутинга.

    Расовая предвзятость в алгоритме риска для здоровья

    Алгоритм прогнозирования риска для здоровья, который используется для более чем 200 миллионов граждан США, продемонстрировал расовую предвзятость, поскольку он полагался на ошибочную метрику для определения потребности.

    Алгоритм был разработан, чтобы предсказать, каким пациентам, вероятно, потребуется дополнительная медицинская помощь, однако затем выясняется, что алгоритм давал ошибочные результаты, в которых предпочтение отдавалось белым пациентам, а не чернокожим.

    Разработчики алгоритма использовали предыдущие расходы пациентов на здравоохранение в качестве показателя медицинских потребностей. Это была плохая интерпретация исторических данных, потому что доход и раса являются сильно коррелированными показателями, и предположения, основанные только на одной переменной коррелирующих показателей, привели к тому, что алгоритм давал неточные результаты.

    Предвзятость в рекламе Facebook

    Есть множество примеров человеческой предвзятости, и мы видим, что это происходит на технологических платформах. Поскольку данные на технических платформах позже используются для обучения моделей машинного обучения, эти предубеждения приводят к предвзятым моделям машинного обучения.

    В 2019 году Facebook разрешил своим рекламодателям намеренно настраивать таргетинг рекламы в зависимости от пола, расы и религии.Например, в объявлениях о вакансиях предпочтение отдавалось женщинам на должности медсестер или секретарей, тогда как объявления о вакансиях дворников и водителей такси в основном показывались мужчинам, в частности мужчинам из меньшинств.

    В результате Facebook больше не позволит работодателям указывать возраст, пол или расу в своих объявлениях.

    Дополнительные ресурсы

    Выступление Криты Шармы на Ted Talk

    Крита Шарма, технолог искусственного интеллекта и бизнес-руководитель, объясняет, как отсутствие разнообразия в технологиях распространяется на ИИ, и предлагает три способа создания более этичных алгоритмов:

    Барак Туровский на саммите Shelly Palmer Innovation Series 2020

    Барак Туровский, директор по продукту в Google AI, объясняет, как Google Translate справляется с предвзятостью ИИ:

    Надеюсь, это прояснит некоторые важные моменты, касающиеся предубеждений в ИИ. Чтобы узнать больше о том, как ИИ меняет мир, вы можете прочитать статьи об ИИ, технологиях ИИ и приложениях ИИ в маркетинге, продажах, обслуживании клиентов, ИТ, данных или аналитике.

    Если вы ищете поставщиков ИИ, вы можете воспользоваться нашими списками, основанными на данных:

    • Платформы ИИ
    • Консультанты по ИИ
    • Услуги по разработке ИИ

    Если у вас есть бизнес-проблема, которая здесь не рассматривается:

    голоса
    Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector