19 просмотров

В отчете NIST подчеркивается, что в предвзятости ИИ есть нечто большее, чем предвзятые данные

Показан айсберг, помеченный техническими уклонами над водой

В качестве шага к улучшению нашей способности выявлять и управлять вредными последствиями предвзятости в системах искусственного интеллекта (ИИ), исследователи из Национального института стандартов и технологий (NIST) рекомендуют расширить область поиска источника этих предубеждений. — помимо процессов машинного обучения и данных, используемых для обучения программного обеспечения ИИ, до более широких социальных факторов, влияющих на развитие технологий.

Эта рекомендация является основным посылом пересмотренной публикации NIST. На пути к стандарту для выявления и управления предвзятостью в искусственном интеллекте (Специальная публикация NIST 1270), в которой отражены комментарии общественности, полученные агентством по черновой версии, выпущенной прошлым летом. В рамках более масштабных усилий по поддержке разработки надежного и ответственного ИИ документ предлагает руководство, связанное с концепцией управления рисками ИИ, которую разрабатывает NIST.

По словам Ревы Шварц из NIST, основное различие между черновой и окончательной версиями публикации заключается в новом акценте на том, как предвзятость проявляется не только в алгоритмах ИИ и данных, используемых для их обучения, но и в социальном контексте, в котором системы ИИ используются.

«Контекст — это все», — сказал Шварц, главный исследователь предвзятости ИИ и один из авторов отчета. «Системы ИИ не работают изолированно. Они помогают людям принимать решения, которые напрямую влияют на жизнь других людей. Если мы хотим разработать надежные системы ИИ, нам необходимо учитывать все факторы, которые могут подорвать доверие общества к ИИ. Многие из этих факторов выходят за рамки самой технологии и влияют на ее воздействие, и комментарии, которые мы получили от широкого круга людей и организаций, подчеркивали этот момент».

Статья в тему:  Ядерное убежище, как долго до безопасности

Предвзятость в ИИ

Предвзятость в ИИ может навредить людям. ИИ может принимать решения, влияющие на то, будет ли человек принят в школу, авторизован для получения банковского кредита или принят в качестве заявителя на аренду. Относительно общеизвестно, что системы ИИ могут проявлять предубеждения, связанные с их программированием и источниками данных; например, программное обеспечение для машинного обучения может быть обучено набору данных, который недопредставляет определенный пол или этническую группу. В пересмотренной публикации NIST признается, что, хотя эти расчетно-статистический источники предвзятости остаются очень важными, они не отражают полной картины.

Для более полного понимания смещения необходимо учитывать человеческий и системный предубеждения, которые значительно фигурируют в новой версии. Системные предубеждения возникают из-за того, что институты действуют таким образом, что ставят в невыгодное положение определенные социальные группы, например, дискриминируют людей по признаку расы. Человеческие предубеждения могут быть связаны с тем, как люди используют данные для заполнения недостающей информации, например, район проживания человека влияет на то, насколько вероятно, что власти сочтут это лицо подозреваемым в совершении преступления. Когда человеческие, системные и вычислительные предубеждения объединяются, они могут образовывать пагубную смесь, особенно когда отсутствуют четкие рекомендации по устранению рисков, связанных с использованием систем ИИ.

«Если мы хотим разработать надежные системы искусственного интеллекта, нам необходимо учитывать все факторы, которые могут подорвать доверие общества к искусственному интеллекту. Многие из этих факторов выходят за рамки самой технологии и касаются ее воздействия.— Рева Шварц, главный исследователь предвзятости ИИ.

Чтобы решить эти проблемы, авторы NIST приводят доводы в пользу «социотехнического» подхода к смягчению предвзятости в ИИ. Этот подход включает в себя признание того, что ИИ действует в более широком социальном контексте — и что чисто технически обоснованные попытки решить проблему предвзятости не увенчаются успехом.

Статья в тему:  Как искусственный интеллект может помочь в первичной медико-санитарной помощи

«Организации часто по умолчанию используют чрезмерно технические решения для проблем предвзятости ИИ», — сказал Шварц.«Но эти подходы неадекватно отражают влияние систем ИИ на общество. Распространение ИИ на многие аспекты общественной жизни требует расширения нашего взгляда, чтобы рассматривать ИИ в рамках более широкой социальной системы, в которой он действует».

По словам Шварца, социально-технические подходы к ИИ — это новая область, и определение методов измерения, учитывающих эти факторы, потребует широкого круга дисциплин и заинтересованных сторон.

«Важно привлекать экспертов из разных областей — не только инженерных — и прислушиваться к мнению других организаций и сообществ о влиянии ИИ», — сказала она.

NIST планирует провести серию открытых семинаров в течение следующих нескольких месяцев, чтобы подготовить технический отчет по устранению предвзятости ИИ и связать отчет со структурой управления рисками ИИ. Чтобы получить дополнительную информацию и зарегистрироваться, посетите страницу семинара AI RMF.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Статьи c упоминанием слов:

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x