0 просмотров

Одна из самых больших проблем в регулировании ИИ — согласование определения

Резюме: Незначительные различия в формулировках могут оказать серьезное влияние на некоторые из наиболее важных проблем, стоящих перед политиками.

Связанные медиа и инструменты

Подпишитесь на еженедельную рассылку Фонда Карнеги за международный мир.

Подпишитесь, чтобы получать электронные письма от Программы технологий и международных отношений Карнеги!

Благодарю вас!

Проверьте свою электронную почту для получения подробной информации о вашем запросе.

В 2017 году, подстрекаемый группами гражданского общества, городской совет Нью-Йорка создал целевую группу для решения проблемы растущего использования в городе искусственного интеллекта. Но целевая группа быстро села на мель, пытаясь прийти к консенсусу в отношении области применения «автоматизированных систем принятия решений». На одном из слушаний городское агентство утверждало, что определение, данное рабочей группой, было настолько обширным, что оно могло включать простые расчеты, такие как формулы в электронных таблицах. К концу своего восемнадцатимесячного срока амбиции целевой группы сузились от рассмотрения того, как город использует автоматизированные системы принятия решений, до простого определения типов систем, которые должны подлежать надзору.

Нью-Йорк не одинок в этой борьбе. Поскольку политики во всем мире пытались создать руководство и правила для использования ИИ в различных условиях, начиная от приема в школу и утверждения ипотечного кредита и заканчивая системами наведения военного оружия, все они сталкиваются с одной и той же проблемой: ИИ В самом деле сложно определить.

Статья в тему:  Каковы современные тенденции в области искусственного интеллекта?
Мэтт О'Шонесси

Программа приглашенных научных сотрудников по технологиям и международным отношениям

Мэтт О’Шонесси — приглашенный научный сотрудник Программы технологий и международных отношений Фонда Карнеги за международный мир, где он применяет свой технический опыт в области машинного обучения для исследований в области геополитики и глобального управления технологиями.

Незначительные различия в определениях, а также перекрывающаяся и перегруженная терминология, используемая различными субъектами для описания схожих методов, могут оказать серьезное влияние на некоторые из наиболее важных проблем, стоящих перед политиками. Исследователи обычно называют методы, которые выводят закономерности из больших наборов данных, «машинным обучением», однако в политике эта же концепция часто именуется «ИИ», вызывая в воображении призрак систем со сверхчеловеческими способностями, а не узкие и ошибочные алгоритмы.А некоторые технологии, коммерчески продаваемые как ИИ, настолько просты, что их собственные инженеры назвали бы их «классическими статистическими методами».

Пытаясь лучше определить ИИ для законодательства или регулирования, политики сталкиваются с двумя сложными компромиссами: использовать ли технический или человеческий словарь и насколько широка сфера применения. Но, несмотря на сложность этих компромиссов, у политиков часто есть способ разработать определение ИИ, подходящее для конкретного рассматриваемого приложения.

Первый компромисс противопоставляет определения, основанные на людях, и определения, основанные на конкретных технических характеристиках. Человеческие определения описывают ИИ по аналогии с человеческим интеллектом. Например, стратегия Министерства обороны США определяет ИИ как «способность машин выполнять задачи, которые обычно требуют человеческого интеллекта». Напротив, определения, основанные на возможностях, описывают ИИ через конкретные технические компетенции. Одно влиятельное определение описывает «машинную систему», которая производит «прогнозы, рекомендации или решения».

Статья в тему:  Почему искусственный интеллект важен/прав.

Определения, основанные на человеческом факторе, естественным образом учитывают достижения в области технологий. Возьмем, к примеру, исследовательское сообщество ИИ, которому мало нужна юридическая точность: его расплывчатые определения ИИ привлекли финансирование для решения широкого круга проблем и поддерживали сплоченное исследовательское сообщество, даже несмотря на то, что представления о том, какие подходы являются наиболее многообещающими, резко изменились. А за счет снижения акцента на конкретных технических характеристиках определения, основанные на человеке, могут лучше сосредоточиться на социотехнических контекстах, в которых работают системы ИИ. Рассмотрение этого более широкого контекста, а не только конкретных технических аспектов, необходимо для регулирующих органов, чтобы понять, как системы ИИ влияют на людей и сообщества.

Напротив, специфика определений, основанных на возможностях, может лучше поддерживать юридическую точность, что является важным фактором для стимулирования инноваций и поддержки верховенства закона.Однако эти определения быстро устареют, если не будут тщательно нацелены на решение очень конкретных проблем политики.

Рассмотрим быстро развивающуюся область генеративного машинного обучения, которая использовалась для создания произведений искусства, созданных искусственным интеллектом, и искусственных, но реалистичных медиа, известных как «дипфейки». Определение ИИ, использованное в недавнем проекте политики ЕС, явно включает системы, которые генерируют «контент» в дополнение к «прогнозам, рекомендациям или решениям». Но чуть более старое определение ОЭСР, на котором основывалось законодательство, упоминает только системы, которые делают «прогнозы, рекомендации или решения», возможно, исключая системы генерации контента. Несмотря на отсутствие точности, определения, основанные на человеческом факторе, могут легче учитывать такого рода развитие технологических возможностей и воздействий.

Статья в тему:  Что такое эвристика в искусственном интеллекте

Второй компромисс заключается в том, следует ли адаптировать определения ИИ к сложным современным системам или они должны также включать классические алгоритмы. Ключевым отличием современных систем искусственного интеллекта, таких как методы глубокого обучения, которые привели к недавним достижениям, является их сложность. В крайнем случае, последние языковые модели, такие как OpenAI GPT-3, содержат миллиарды параметров и требуют вычислений на миллионы долларов для обучения. Политики должны учитывать уникальные риски и вред, создаваемый этими системами, но в результате влияние классических алгоритмов и статистических методов не должно быть исключено из поля зрения регулирующих органов.

Сложные системы искусственного интеллекта вызывают серьезные опасения из-за того, как они получают результаты из путаницы данных. Они могут неожиданно выйти из строя при работе в условиях, не отраженных в их обучающих данных — представьте, что автономные транспортные средства останавливаются или, что еще хуже, столкнулись с неопознанным объектом на обочине дороги.Точная логика, которую сложные системы ИИ используют для получения выводов из этих больших наборов данных, запутана и непрозрачна, и часто невозможно сжать ее до простых объяснений, которые позволили бы пользователям понять их работу и ограничения.

Ограничение объема определения ИИ только для охвата этих сложных систем — путем исключения, например, видов простых вычислений, которые затянули в дебатах рабочую группу Нью-Йорка, — может упростить соблюдение и соблюдение правил. Действительно, многие определения ИИ, используемые в политических документах, кажется, написаны в попытке конкретно описать сложные системы глубокого обучения. Но сосредоточение внимания исключительно на системах ИИ, напоминающих научно-фантастические варианты использования, рискует игнорировать реальный вред, который возникает в результате слепого использования исторических данных как в сложных, так и в классических алгоритмах.

Статья в тему:  По мере развития искусственного интеллекта, каковы его религиозные последствия

Например, сложные системы глубокого обучения, которых просят генерировать изображения руководителей корпораций, могут возвращать в основном белых мужчин, что является результатом дискриминационных исторических паттернов, отраженных в обучающих данных систем. Слепое использование классическими алгоритмами исторических данных для принятия решений и прогнозов может привести к точно таким же дискриминационным шаблонам, как и сложные системы. В 2020 году регулирующие органы Великобритании устроили скандал, внедрив алгоритм для получения оценок на основе оценок учителей и исторических данных после отмены экзаменов в средней школе из-за пандемии. Алгоритм основывался на статистических методах десятилетней давности, а не на сложных системах глубокого обучения, но при этом он представлял те же проблемы со стабильной погрешностью, которые часто связаны со сложными алгоритмами. Учащиеся и родители выразили озабоченность по поводу прозрачности и надежности, что в конечном итоге привело к отставке высокопоставленных государственных служащих. Предвзятые результаты, производимые как сложными, так и классическими алгоритмами, могут, в свою очередь, усиливать глубоко укоренившееся неравенство в нашем обществе, создавая порочные круги дискриминации.

Невозможно создать единое универсальное определение ИИ, но, тщательно обдумав, политики могут сформулировать параметры, которые помогут им достичь своих политических целей.

Когда точность не важна, политики могут вообще отказаться от использования определения. Во влиятельном документе ЮНЕСКО от точного определения отказались в пользу акцента на воздействии систем ИИ, что привело к созданию более перспективного инструмента, который с меньшей вероятностью будет нуждаться в обновлении по мере развития технологий. Неточные понятия ИИ также могут поддерживаться общим правом, где определения могут изменяться с течением времени. Законодатели могут поддержать этот плавный процесс эволюции, включив формулировку, описывающую цели политики, связанной с ИИ. В некоторых условиях схемы регулирования, основанные на ответственности, которые непосредственно нацелены на ожидаемый ущерб, также могут избежать необходимости в точном определении.

Статья в тему:  Что такое исходный код для искусственного интеллекта

В других контекстах законодатели могут создать широкое законодательство, используя определение ИИ, основанное на человеке и охватывающее как классические, так и сложные системы ИИ, а затем позволяя более гибким регулирующим органам создавать точные определения, основанные на возможностях. Эти регулирующие органы могут вести тонкий диалог с регулируемыми сторонами, быстрее адаптировать правила по мере развития технологий и решать конкретные политические проблемы. При правильном применении этот подход может снизить затраты на соблюдение нормативных требований, не жертвуя способностью развиваться вместе с техническим прогрессом.

Несколько новых подходов к регулированию придерживаются этого такта, но чтобы быть успешными, они должны гарантировать, что их можно будет легко обновлять по мере развития технологий.Например, Закон ЕС об ИИ определяет набор инструментов регулирования — кодексы поведения, требования прозрачности, оценки соответствия и прямые запреты — а затем применяет их к конкретным приложениям ИИ в зависимости от того, считается ли их уровень риска «минимальным», «ограниченным, «высокий» или «неприемлемый». Если список приложений в каждой категории риска может быть легко обновлен, этот подход сохраняет как гибкость широких законодательных определений ИИ, так и точность узких определений, основанных на возможностях.

Чтобы сбалансировать компромисс между ограничением внимания сложным системам искусственного интеллекта или включением классических алгоритмов, регулирующие органы должны по умолчанию использовать широкий охват, сужая его только тогда, когда это необходимо для обеспечения возможности принудительного исполнения или при нацеливании на вред, однозначно причиняемый конкретными сложными алгоритмами. Вред, причиняемый простыми алгоритмами, может легко остаться незамеченным, замаскированным за маской математической объективности, и регулирующие органы, игнорирующие классические алгоритмы, рискуют упустить из виду основные политические проблемы. Вдумчивое внимание политиков к ИИ — начиная с формы и объема его определения — имеет решающее значение для смягчения опасностей ИИ и обеспечения широкого распространения его преимуществ.

Статья в тему:  В чем преимущества искусственного интеллекта

Конец документа

Карнеги не занимает институциональную позицию по вопросам государственной политики; взгляды, представленные здесь, принадлежат автору (авторам) и не обязательно отражают взгляды Карнеги, его сотрудников или его попечителей.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Похожие публикации