13 просмотров

Этические принципы ИИ не решат кризис прав человека

Недавно я вернулся с RightsCon, огромной ежегодной глобальной встречи, посвященной технологиям и правам человека, и у меня в ушах звенели слова основного докладчика Зейнеп Туфекчи: «Цифровые права, права на неприкосновенность частной жизни, права доступа — это не факультативные права — это основные права»; «Мы не должны умолять, умолять и превращаться в технических волшебников, чтобы осуществлять наши основные права». Туфекчи призвал технологические компании производить продукты, которые по умолчанию придерживаются прав человека, а не задним числом. И она права.

Хотя многие из технологических транснациональных корпораций присутствовали на конференции и участвовали в ней, существует удручающая пропасть между разговорами в таком безопасном пространстве и реальными действиями — действиями, которые действительно защищают права человека для всех, с реальным акцентом на воздействии на самых бесправных, маргинализированных и уязвимых людей в нашем обществе.

И правительства, и технологические компании должны сыграть огромную роль в том, чтобы не допустить нарушения прав человека технологиями, но ни одна из них не предпринимает достаточных действий для серьезного решения проблемы распространения рисков, связанных с продолжающейся разработкой и выпуском новых продуктов. Широкое внедрение машинного обучения и автоматизированных систем принятия решений без надлежащего учета их воздействия представляет собой серьезную угрозу правам человека, которые были завоеваны с таким трудом, и в случае утраты их будет невероятно трудно восстановить.

Статья в тему:  Какой термин искусственного интеллекта используется для описания извлечения информации

Декларация Торонто, год спустя

На прошлогоднем мероприятии RightsCon организации Amnesty и Access Now обнародовали Декларацию Торонто, знаменательное заявление о влиянии систем машинного обучения на права человека на право на равенство и недискриминацию.

Декларация, созданная более чем 30 экспертами из групп по правам человека и гражданским свободам, учеными, юристами и разработчиками политики в области технологий, является призывом к действиям для правительств и компаний, чтобы каждая из них выполнила свои существующие обязанности по защите прав человека в соответствии с международным законодательством о правах человека. и стандарты.

В Торонтской декларации мы просто изложили эти существующие структуры — государства несут юридические обязательства по соблюдению требований, а компании обязаны работать в рамках должной осмотрительности в области прав человека — и перевели их для эпохи машинного обучения.

Декларация Торонто была широко поддержана гражданским обществом, но прием со стороны технологических компаний был явно холодным.

Технологические компании с удовольствием говорят о правах человека, меньше хотят брать на себя ответственность

В прошлом году к нам присоединились представители некоторых технологических транснациональных корпораций на однодневном драфт-марафоне — нишевом мероприятии на выносливость; но даже те, кто был рад внести свой вклад в разработку Торонтской декларации и сообщить ее формулировку, уклонялись от ее публичной поддержки.

Представители технологических компаний сказали мне, что «это будет использовано против них, чтобы привлечь их к ответственности» (… в соответствии с существующими стандартами) и что «это читается так, как будто это было написано разгневанными людьми», на что я отвечаю — конечно, мы злятся! Мы возмущены тем, что, несмотря на доказательства того, что системы машинного обучения могут нарушать права человека, разработка и продажа этих продуктов продолжаются, что не влечет за собой серьезных последствий для тех, кто отвечает за их разработку и развертывание, без учета их воздействия на права человека. Например, мы знаем, что технология распознавания лиц в реальном времени угрожает неприкосновенности частной жизни, недискриминации, праву на собрания и ассоциации (и многому другому) — и все же она используется во всевозможных странных и не очень замечательных сценариях.

Статья в тему:  Когда зародилась автомобильная индустрия искусственного интеллекта

Компании несут четкую ответственность за то, чтобы они не вызывали и не способствовали нарушениям прав человека и не были напрямую связаны с нарушением прав человека деловыми отношениями. Это означает переход от высоких принципов к конкретным действиям.

Любовь Силиконовой долины к этике

За последний год Силиконовую долину захлестнула волна омовения этических норм, поскольку технологические компании спешат понять влияние своих технологий и, по-видимому, пресекают их вредоносное использование.Но сами компании намерены писать правила.

Этические принципы являются полезным инструментом, когда они используются для поднятия планки выше существующей защиты прав. Проблема сейчас заключается в том, что «этика» используется как механизм снижения планки, позволяя тем, кто несет ответственность за потенциальное злоупотребление, уклоняться от ответственности. Бен Вагнер хорошо выразился:

«Не имея возможности или не желая должным образом предоставлять регуляторные решения, этика рассматривается как «простой» или «мягкий» вариант, который может помочь структурировать и придать смысл существующим инициативам саморегулирования. В этом мире «этика» — это новое «саморегулирование отрасли».

Через несколько недель после Торонто Google запустил свои Принципы искусственного интеллекта. Они отлично смотрятся: за права человека, против ИИ для использования в оружии. Они объединяются вокруг основанных на правах концепций справедливости, неприкосновенности частной жизни, общественного блага и, что особенно важно, подотчетности.

  1. Быть ответственным перед людьми
    Мы разработаем системы ИИ, которые обеспечат соответствующие возможности для обратной связи, соответствующих объяснений и апелляции. Наши технологии искусственного интеллекта будут подлежать соответствующему руководству и контролю со стороны человека.
    Принципы искусственного интеллекта Google

Тем не менее, похоже, что этот принцип применим только к продуктам Google, а не к операциям компании — и на ее собственных условиях. Google, как и любая крупная многонациональная технологическая компания, остается безответственной, когда создает и продает продукты, угрожающие правам человека: Принципы не остановили создание проекта «Стрекоза». Как и в случае с Project Maven, именно мобилизация сотрудников и критика со стороны Amnesty и других правозащитных групп, казалось, сдерживали развитие Dragonfly в прошлом году. Недолгий срок существования группы по надзору за этикой Google показывает, что без консультаций, четкого круга ведения и дорожной карты подотчетности потенциально полезные механизмы управления будут малопривлекательны как внутри компании, так и за ее пределами, если им не хватает доверия, содержания и зубов.

Статья в тему:  Как производство пластика влияет на глобальное потепление

Google — лишь один из примеров.У Microsoft есть принципы искусственного интеллекта; Facebook устанавливает этику в центре искусственного интеллекта в немецком университете; Baidu и Tencent призывают к этическим основам для ИИ. Но насколько серьезно к этим предприятиям относятся компании, которые их создают? За заметным исключением широко разрекламированного решения Microsoft отклонить контракты на распознавание лиц для двух потенциальных клиентов из-за проблем с правами человека, компании публично не сообщают о том, как их инициативы в области этики останавливают «неэтичные» технологии или информируют о решениях по разработке или заключению контрактов.

Между тем, Microsoft и Google в своих годовых отчетах за прошлый год назвали «неэтичные технологии» вредными для бизнеса; Сообщается, что Facebook изо всех сил пытается нанять сотрудников из-за проблем с правами человека и более широкого экзистенциального кризиса. Инициативы в области этики могут успокоить инвесторов, обеспокоенных финансовыми последствиями плохой рекламы, но без механизмов принуждения и надежного надзора они кажутся не более чем маркетинговым мероприятием, призванным убедить пользователей в том, что их продукты и системы заслуживают доверия.

Штаты догоняют технологическое управление

Правительства несут полную ответственность за защиту наших прав человека, но они изо всех сил пытаются обуздать угрозы, исходящие от новых технологий, особенно в области машинного обучения. Тем временем многие штаты сами внедряют и внедряют эти технологии в сфере предоставления услуг в государственном секторе, от функций уголовного правосудия до систем социального обеспечения.

Статья в тему:  Как искусственный интеллект изменит профессию бухгалтера

Новые межгосударственные инициативы ОЭСР и органа ООН по правам человека, УВКПЧ, являются долгожданным международным прибытием в МА и правозащитную партию. Мы надеемся, что они смогут объединить государства вокруг некоторых надежных инициатив в области управления — чем раньше, тем лучше. Саморегуляция явно не работает (и не должна).

Гарантии прав человека должны быть частью, а не второстепенной задачей

В то же время, на самом деле власть обуздать или даже полностью остановить разработку технических продуктов и систем, которые рискуют усугубить неравенство, отказаться от конфиденциальности, угрожать нашим правам на свободу ассоциации, выражение мнений, средства правовой защиты и т. д., лежит на технологических компаниях. сами себя. Они возглавляют исследования и разработки в этой области, и они не только несут ответственность за рассмотрение воздействия на права человека в начале жизненного цикла продукта, а не в последнюю очередь, но и имеют право предотвращать вред посредством продуманный дизайн, консультации и надзор за своей продукцией.

В конечном итоге компании несут ответственность за выявление любых рисков и предотвращение того, чтобы их продукты или услуги вызывали, способствовали или были связаны с нарушениями прав человека. Понимание риска для прав человека — вот где вступают Amnesty и другие правозащитные группы — и, что особенно важно, затронутые конечные пользователи, с которыми действительно нужно консультироваться и слушать, когда системы и продукты напрямую формируют их общество и потенциально ограничивают их права человека.

Статья в тему:  Как экономический выбор способствует глобальному потеплению

Хватит этики-стирки. Влиятельные многонациональные компании должны с самого начала применять должную осмотрительность в области прав человека по умолчанию. Разве не было бы замечательно, если бы защита прав человека рассматривалась как новаторская функция, а не считалась «барьером» на пути «прогресса»? Чтобы создавать продукты, которые действительно заслуживают доверия, создатели должны стремиться уважать и защищать права человека, на которые мы все имеем право по умолчанию.

Дальнейшее чтение

Темы

  • Исследовательская работа
  • Блог
  • Бизнес и права человека
  • Технологии и права человека
голоса
Рейтинг статьи
Ссылка на основную публикацию
Статьи c упоминанием слов:

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x