0 просмотров

ICYMI: WIRED (мнение): американцам нужен Билль о правах для мира, основанного на искусственном интеллекте

За последнее десятилетие технологии, основанные на данных, изменили мир вокруг нас. Мы видели, что возможно, собирая большие объемы данных и обучая искусственный интеллект их интерпретации: компьютеры, которые учатся переводить языки, системы распознавания лиц, которые разблокируют наши смартфоны, алгоритмы, которые выявляют рак у пациентов. Возможности безграничны.

Но эти новые инструменты также привели к серьезным проблемам. То, чему обучаются машины, зависит от многих факторов, в том числе от данных, используемых для их обучения.

Наборы данных, которые не представляют американское общество, могут привести к тому, что виртуальные помощники не поймут южный акцент; технология распознавания лиц, которая приводит к неправомерным и дискриминационным арестам; и алгоритмы здравоохранения, которые учитывают тяжесть заболевания почек у афроамериканцев, предотвращая пересадку почки.

Тренировочные машины, основанные на более ранних примерах, могут внедрять прошлые предубеждения и обеспечивать различение в настоящем.Инструменты найма, которые изучают особенности сотрудников компании, могут отклонять соискателей, которые не похожи на существующих сотрудников, несмотря на то, что они обладают высокой квалификацией, — например, женщины-программисты. Алгоритмы одобрения ипотеки для определения кредитоспособности могут легко сделать вывод, что определенные почтовые индексы домов коррелируют с расой и бедностью, что продлевает десятилетия жилищной дискриминации до цифровой эпохи. ИИ может порекомендовать медицинскую помощь группам, которые чаще всего обращаются за больничными услугами, а не тем, кто в них больше всего нуждается. Неизбирательное обучение ИИ интернет-разговорам может привести к «анализу настроений», который рассматривает слова «черный», «еврей» и «гей» как отрицательные.

Статья в тему:  Почему вы хотите работать в области искусственного интеллекта

Эти технологии также вызывают вопросы о конфиденциальности и прозрачности. Когда мы просим нашу умную колонку сыграть песню, записывает ли она то, что говорят наши дети? Когда студент сдает экзамен онлайн, должна ли его веб-камера отслеживать и отслеживать каждое его движение? Имеем ли мы право знать, почему нам отказали в ипотечном кредите или в собеседовании при приеме на работу?

Кроме того, существует проблема преднамеренного злоупотребления ИИ. Некоторые автократии используют его как инструмент поддерживаемого государством угнетения, разделения и дискриминации.

В Соединенных Штатах некоторые из недостатков ИИ могут быть непреднамеренными, но они серьезны и непропорционально сильно влияют на и без того маргинализированных людей и сообщества. Они часто возникают из-за того, что разработчики ИИ не используют соответствующие наборы данных и не проводят всесторонний аудит систем, а также не имеют разных точек зрения за столом, чтобы предвидеть и устранять проблемы до того, как продукты будут использованы (или уничтожать продукты, которые нельзя исправить).

На конкурентном рынке может показаться, что проще срезать углы. Но недопустимо создавать системы ИИ, которые навредят многим людям, так же, как недопустимо создавать лекарства и другие продукты — будь то автомобили, детские игрушки или медицинские приборы, — которые навредят многим людям.

Американцы имеют право ожидать лучшего.Мощные технологии должны требовать уважения наших демократических ценностей и соблюдения основного принципа справедливого отношения ко всем. Кодификация этих идей может помочь в этом.

Статья в тему:  Оракл что такое искусственный интеллект

Вскоре после ратификации нашей Конституции американцы приняли Билль о правах для защиты от могущественного правительства, которое мы только что создали, в котором перечислены такие гарантии, как свобода выражения мнений и собраний, право на надлежащую правовую процедуру и справедливое судебное разбирательство, а также защита от необоснованных обысков и конфискаций. На протяжении всей нашей истории нам приходилось переосмысливать, подтверждать и периодически расширять эти права. В 21 веке нам нужен «билль о правах» для защиты от мощных технологий, которые мы создали.

Наша страна должна разъяснить права и свободы, соблюдение которых мы ожидаем от технологий, основанных на данных. Что это такое, потребует обсуждения, но вот некоторые возможности: ваше право знать, когда и как ИИ влияет на решение, затрагивающее ваши гражданские права и свободы; ваша свобода от воздействия ИИ, который не прошел тщательный аудит, чтобы убедиться, что он точен, непредвзят и обучен на достаточно репрезентативных наборах данных; ваша свобода от всепроникающей или дискриминационной слежки и мониторинга в вашем доме, обществе и на рабочем месте; и ваше право на осмысленное обращение за помощью, если использование алгоритма нанесет вам вред.

Конечно, перечисление прав — это только первый шаг. Что мы можем сделать, чтобы защитить их? Возможности включают отказ федерального правительства покупать программное обеспечение или технологические продукты, которые не соблюдают эти права, требование к федеральным подрядчикам использовать технологии, соответствующие этому «биллю о правах», или принятие новых законов и правил для заполнения пробелов. Государства могут решить принять аналогичную практику.

Статья в тему:  Искусственный интеллект рисует ощущения от песни

В ближайшие месяцы Управление Белого дома по научно-технической политике (которое мы возглавляем) будет разрабатывать такой билль о правах, работая с партнерами и экспертами из федерального правительства, научных кругов, гражданского общества, частного сектора и сообществ. по всей стране.

Технологии могут работать для всех только в том случае, если все включены, поэтому мы хотим услышать и взаимодействовать со всеми. Вы можете написать нам напрямую по адресу ai-equity@ostp.eop.gov.

Сегодня мы начинаем с публичного запроса информации о технологиях, используемых для идентификации людей и определения атрибутов, часто называемых биометрическими, включая распознавание лиц, а также системы, которые могут распознавать и анализировать ваш голос, физические движения и жесты, частоту сердечных сокращений и многое другое. . Мы начинаем здесь из-за того, насколько широко они применяются и как быстро они развиваются не только для идентификации и наблюдения, но и для того, чтобы делать выводы о наших эмоциональных состояниях и намерениях. Мы хотим услышать мнение экспертов по сбору и использованию биометрических данных, а также многих других: путешественников, которых попросили сканировать свое лицо перед посадкой в ​​самолет, работников, чьи работодатели предоставили им фитнес-трекеры для контроля усталости, и учителей, чьи виртуальные лекции программное обеспечение предназначено для того, чтобы показать, какие ученики невнимательны в классе.

Мы хотим услышать от специалистов по персоналу, чье программное обеспечение для найма может использовать голосовой и поведенческий анализ, от ИТ-специалистов и потребителей, которые покупают и настраивают эти технологии, от специалистов по данным и инженеров-программистов, которые их проектируют и создают, а также от всех, кто сталкивался с эти технологии в своей повседневной жизни. Какой бы ни была ваша точка зрения, мы готовы выслушать вас.

Статья в тему:  Сколько процентов людей боятся искусственного интеллекта

Разработать билль о правах для мира с искусственным интеллектом будет непросто, но очень важно.

С момента своего основания Америка находилась в постоянном развитии: стремилась к ценностям, признавала недостатки и работала над их исправлением. Мы также должны поддерживать ИИ в соответствии с этим стандартом.Мы все должны обеспечить, чтобы технологии, основанные на данных, отражали и уважали наши демократические ценности.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector