Этические принципы ИИ не решат кризис прав человека
Недавно я вернулся с RightsCon, огромной ежегодной глобальной встречи, посвященной технологиям и правам человека, и у меня в ушах звенели слова основного докладчика Зейнеп Туфекчи: «Цифровые права, права на неприкосновенность частной жизни, права доступа — это не факультативные права — это основные права»; «Мы не должны умолять, умолять и превращаться в технических волшебников, чтобы осуществлять наши основные права». Туфекчи призвал технологические компании производить продукты, которые по умолчанию придерживаются прав человека, а не задним числом. И она права.
Хотя многие из технологических транснациональных корпораций присутствовали на конференции и участвовали в ней, существует удручающая пропасть между разговорами в таком безопасном пространстве и реальными действиями — действиями, которые действительно защищают права человека для всех, с реальным акцентом на воздействии на самых бесправных, маргинализированных и уязвимых людей в нашем обществе.
И правительства, и технологические компании должны сыграть огромную роль в том, чтобы не допустить нарушения прав человека технологиями, но ни одна из них не предпринимает достаточных действий для серьезного решения проблемы распространения рисков, связанных с продолжающейся разработкой и выпуском новых продуктов. Широкое внедрение машинного обучения и автоматизированных систем принятия решений без надлежащего учета их воздействия представляет собой серьезную угрозу правам человека, которые были завоеваны с таким трудом, и в случае утраты их будет невероятно трудно восстановить.
Декларация Торонто, год спустя
На прошлогоднем мероприятии RightsCon организации Amnesty и Access Now обнародовали Декларацию Торонто, знаменательное заявление о влиянии систем машинного обучения на права человека на право на равенство и недискриминацию.
Декларация, созданная более чем 30 экспертами из групп по правам человека и гражданским свободам, учеными, юристами и разработчиками политики в области технологий, является призывом к действиям для правительств и компаний, чтобы каждая из них выполнила свои существующие обязанности по защите прав человека в соответствии с международным законодательством о правах человека. и стандарты.
В Торонтской декларации мы просто изложили эти существующие структуры — государства несут юридические обязательства по соблюдению требований, а компании обязаны работать в рамках должной осмотрительности в области прав человека — и перевели их для эпохи машинного обучения.
Декларация Торонто была широко поддержана гражданским обществом, но прием со стороны технологических компаний был явно холодным.
Технологические компании с удовольствием говорят о правах человека, меньше хотят брать на себя ответственность
В прошлом году к нам присоединились представители некоторых технологических транснациональных корпораций на однодневном драфт-марафоне — нишевом мероприятии на выносливость; но даже те, кто был рад внести свой вклад в разработку Торонтской декларации и сообщить ее формулировку, уклонялись от ее публичной поддержки.
Представители технологических компаний сказали мне, что «это будет использовано против них, чтобы привлечь их к ответственности» (… в соответствии с существующими стандартами) и что «это читается так, как будто это было написано разгневанными людьми», на что я отвечаю — конечно, мы злятся! Мы возмущены тем, что, несмотря на доказательства того, что системы машинного обучения могут нарушать права человека, разработка и продажа этих продуктов продолжаются, что не влечет за собой серьезных последствий для тех, кто отвечает за их разработку и развертывание, без учета их воздействия на права человека. Например, мы знаем, что технология распознавания лиц в реальном времени угрожает неприкосновенности частной жизни, недискриминации, праву на собрания и ассоциации (и многому другому) — и все же она используется во всевозможных странных и не очень замечательных сценариях.
Компании несут четкую ответственность за то, чтобы они не вызывали и не способствовали нарушениям прав человека и не были напрямую связаны с нарушением прав человека деловыми отношениями. Это означает переход от высоких принципов к конкретным действиям.
Любовь Силиконовой долины к этике
За последний год Силиконовую долину захлестнула волна омовения этических норм, поскольку технологические компании спешат понять влияние своих технологий и, по-видимому, пресекают их вредоносное использование.Но сами компании намерены писать правила.
Этические принципы являются полезным инструментом, когда они используются для поднятия планки выше существующей защиты прав. Проблема сейчас заключается в том, что «этика» используется как механизм снижения планки, позволяя тем, кто несет ответственность за потенциальное злоупотребление, уклоняться от ответственности. Бен Вагнер хорошо выразился:
«Не имея возможности или не желая должным образом предоставлять регуляторные решения, этика рассматривается как «простой» или «мягкий» вариант, который может помочь структурировать и придать смысл существующим инициативам саморегулирования. В этом мире «этика» — это новое «саморегулирование отрасли».
Через несколько недель после Торонто Google запустил свои Принципы искусственного интеллекта. Они отлично смотрятся: за права человека, против ИИ для использования в оружии. Они объединяются вокруг основанных на правах концепций справедливости, неприкосновенности частной жизни, общественного блага и, что особенно важно, подотчетности.
- Быть ответственным перед людьми
Мы разработаем системы ИИ, которые обеспечат соответствующие возможности для обратной связи, соответствующих объяснений и апелляции. Наши технологии искусственного интеллекта будут подлежать соответствующему руководству и контролю со стороны человека.—Принципы искусственного интеллекта Google
Тем не менее, похоже, что этот принцип применим только к продуктам Google, а не к операциям компании — и на ее собственных условиях. Google, как и любая крупная многонациональная технологическая компания, остается безответственной, когда создает и продает продукты, угрожающие правам человека: Принципы не остановили создание проекта «Стрекоза». Как и в случае с Project Maven, именно мобилизация сотрудников и критика со стороны Amnesty и других правозащитных групп, казалось, сдерживали развитие Dragonfly в прошлом году. Недолгий срок существования группы по надзору за этикой Google показывает, что без консультаций, четкого круга ведения и дорожной карты подотчетности потенциально полезные механизмы управления будут малопривлекательны как внутри компании, так и за ее пределами, если им не хватает доверия, содержания и зубов.
Google — лишь один из примеров.У Microsoft есть принципы искусственного интеллекта; Facebook устанавливает этику в центре искусственного интеллекта в немецком университете; Baidu и Tencent призывают к этическим основам для ИИ. Но насколько серьезно к этим предприятиям относятся компании, которые их создают? За заметным исключением широко разрекламированного решения Microsoft отклонить контракты на распознавание лиц для двух потенциальных клиентов из-за проблем с правами человека, компании публично не сообщают о том, как их инициативы в области этики останавливают «неэтичные» технологии или информируют о решениях по разработке или заключению контрактов.
Между тем, Microsoft и Google в своих годовых отчетах за прошлый год назвали «неэтичные технологии» вредными для бизнеса; Сообщается, что Facebook изо всех сил пытается нанять сотрудников из-за проблем с правами человека и более широкого экзистенциального кризиса. Инициативы в области этики могут успокоить инвесторов, обеспокоенных финансовыми последствиями плохой рекламы, но без механизмов принуждения и надежного надзора они кажутся не более чем маркетинговым мероприятием, призванным убедить пользователей в том, что их продукты и системы заслуживают доверия.
Штаты догоняют технологическое управление
Правительства несут полную ответственность за защиту наших прав человека, но они изо всех сил пытаются обуздать угрозы, исходящие от новых технологий, особенно в области машинного обучения. Тем временем многие штаты сами внедряют и внедряют эти технологии в сфере предоставления услуг в государственном секторе, от функций уголовного правосудия до систем социального обеспечения.
Новые межгосударственные инициативы ОЭСР и органа ООН по правам человека, УВКПЧ, являются долгожданным международным прибытием в МА и правозащитную партию. Мы надеемся, что они смогут объединить государства вокруг некоторых надежных инициатив в области управления — чем раньше, тем лучше. Саморегуляция явно не работает (и не должна).
Гарантии прав человека должны быть частью, а не второстепенной задачей
В то же время, на самом деле власть обуздать или даже полностью остановить разработку технических продуктов и систем, которые рискуют усугубить неравенство, отказаться от конфиденциальности, угрожать нашим правам на свободу ассоциации, выражение мнений, средства правовой защиты и т. д., лежит на технологических компаниях. сами себя. Они возглавляют исследования и разработки в этой области, и они не только несут ответственность за рассмотрение воздействия на права человека в начале жизненного цикла продукта, а не в последнюю очередь, но и имеют право предотвращать вред посредством продуманный дизайн, консультации и надзор за своей продукцией.
В конечном итоге компании несут ответственность за выявление любых рисков и предотвращение того, чтобы их продукты или услуги вызывали, способствовали или были связаны с нарушениями прав человека. Понимание риска для прав человека — вот где вступают Amnesty и другие правозащитные группы — и, что особенно важно, затронутые конечные пользователи, с которыми действительно нужно консультироваться и слушать, когда системы и продукты напрямую формируют их общество и потенциально ограничивают их права человека.
Хватит этики-стирки. Влиятельные многонациональные компании должны с самого начала применять должную осмотрительность в области прав человека по умолчанию. Разве не было бы замечательно, если бы защита прав человека рассматривалась как новаторская функция, а не считалась «барьером» на пути «прогресса»? Чтобы создавать продукты, которые действительно заслуживают доверия, создатели должны стремиться уважать и защищать права человека, на которые мы все имеем право по умолчанию.
Дальнейшее чтение
Темы
- Исследовательская работа
- Блог
- Бизнес и права человека
- Технологии и права человека