Этика ИИ сводится к сознательным решениям
Прямо сейчас кто-то где-то пишет очередную фейковую новость или редактирует дипфейковое видео. Авторитарный режим манипулирует системой искусственного интеллекта (ИИ), чтобы шпионить за пользователями технологий. Какими бы хорошими ни были намерения, стоящие за развитием технологии, кто-то обязательно искажает ее и манипулирует ею.
Большие данные и искусственный интеллект усугубляют проблему. «Если у вас есть хорошие намерения, вы можете сделать это очень хорошо.Если у вас плохие намерения, вы можете сделать их очень плохими», — сказал Майкл Стайфел, директор Reliable Software Inc. и консультант по разработке программного обеспечения.
Важно осознавать эту реальность при создании алгоритмов и моделей обучения. Алгоритмы работы с большими данными умны, но недостаточно умны, чтобы решать сугубо человеческие проблемы. ИИ в беспилотном автомобиле может быть не в состоянии определить, собирается ли снеговик на обочине прыгнуть ему на пути. Алгоритмам под капотом не хватает здравого смысла, чтобы сделать различие, и они могут активировать тормоза, сказала Мелани Митчелл, профессор сложности Дэвиса в Институте Санта-Фе в Нью-Мексико и профессор компьютерных наук в Портлендском государственном университете.
Такие сценарии создают сложности и этические дилеммы. Как разработчики могут гарантировать, что алгоритмы используются для добрых дел, а не для гнусных целей — что транспортное средство не намеренно сбивает кого-то с дороги? Как избежать создания технологической неуправляемой пушки, которую могут использовать расистские группы для организации или киберпреступники для кражи сбережений пожилых людей или самых сокровенных секретов компании? И как помешать национальным государствам создать дивный новый мир, в котором вездесущие лидеры подавляют гражданские свободы?
Сознательная прозрачность
Технологические компании, которые серьезно относятся к этике и хотят избежать статуса изгоя, должны нести ответственность. Закрывать глаза на проблемы или применять полумеры не получится. Платформы социальных сетей боролись с этим. Сначала их критиковали за то, что они недостаточно следили за контентом, а затем, после введения более жестких правил, за то, что они были слишком деспотичными.
Прозрачность является ключевым фактором. Когда алгоритмы принимают решения, пользователи могут, так сказать, не осознавать, что за все отвечает ИИ. Это проблема социальных сетей, поскольку пользователи, привыкшие делиться любым контентом, который они хотели, внезапно были ограничены алгоритмическими правилами.
Широкая общественность не знает, как работают алгоритмы, поэтому, когда технологии действуют неожиданным образом, это расстраивает пользователей. Это можно решить с помощью объяснения того, как работает технология — например, как механизмы машинного обучения (ML) лучше справляются со своими задачами, получая кучу данных. Чат-бот, который теперь полагается в основном на готовые ответы, со временем становится более точным и полезным.
«При разработке этичных систем искусственного интеллекта наиболее важной частью является намерение и усердие в оценке моделей на постоянной основе», — сказал Сантьяго Хиральдо Андуага, директор по маркетингу продуктов, обработке данных и машинному обучению в Cloudera. «Иногда, даже если все сделано для достижения этических результатов, машина все равно может делать прогнозы и предположения, не соответствующие этим правилам. Это не вина машины. В конце концов, системы машинного обучения по своей природе глупы и требуют участия человека, чтобы убедиться, что модель остается здоровой, точной и свободной от предвзятости».
«Главный вопрос заключается в том, как искусственный интеллект может внести свой вклад в справедливое и устойчивое общество», — сказал Стайфель. «Нам нужно найти место, где программное обеспечение будет полезно обществу и где нужны люди. Ответ не очевиден. Мы должны быть в состоянии принять это решение сознательно, а не неосознанно, когда технология будет выпущена в мир».
Весь мир — лаборатория
В блоге на Medium автор Роб Уокер утверждает: «Было бы разумно заранее подумать о том, как неонацисты могут использовать Twitter, как педофилы могут использовать YouTube или как массовый убийца может использовать Facebook Live».
Рассуждение в силе. Но мы должны признать нынешние ограничения технологии. ИИ и другие алгоритмы, интенсивно использующие данные, — младенцы. Независимо от того, насколько хорошо они воспитаны, как только они окажутся в мире, они будут вести себя так, что удивят родителей. Или, другими словами, весь мир — это лаборатория, и все мы являемся частью эксперимента с ИИ, наблюдая, чувствуя и справляясь с последствиями результатов.
«Безусловно, самая большая опасность искусственного интеллекта заключается в том, что люди слишком рано приходят к выводу, что они его понимают», — написал исследователь ИИ Элиезер Юдковски в статье под названием «Искусственный интеллект как положительный и отрицательный фактор глобального риска».
Это не освобождает технологические компании от применения этики к разработке. Как сказал Тим Кук из Apple: «Мы несем ответственность за признание того, что устройства, которые мы производим, и платформы, которые мы создаем, оказывают реальное, длительное и даже постоянное влияние на людей и сообщества, которые их используют. Мы никогда не должны переставать спрашивать себя, в каком мире мы хотим жить? Ответ на этот вопрос не должен быть запоздалым, он должен быть нашей главной заботой».
Разработка против использования
Говоря об этике ИИ, Стайфель выступает за то, чтобы разработчики и руководители продуктов признавали фундаментальное различие между созданием продукта с потенциальными неблагоприятными последствиями и платформой, «позволяющей осуществлять определенные типы самовыражения». По его словам, первое включает в себя саму суть создания, а второе — использование.
Когда мы говорим о Facebook, Twitter или YouTube, пытающихся остановить распространение разжигания ненависти или фальшивых новостей, проблема сводится к регулированию использования. Платформы социальных сетей борются с тем, что давно поняли издатели газет: самоцензура — ваш друг. После того, как их призвали к подходу невмешательства, они теперь пытаются исправить прошлые ошибки, используя для этого искусственный интеллект.
«Даже тогда, — сказал Стайфель, — поскольку алгоритмы ИИ в настоящее время не понимают смысла того, что они анализируют, контент может быть классифицирован неправильно».
Преодолеть эти проблемы непросто, но выполнимо. Ллойд Данциг, председатель и основатель Международного консорциума этического развития искусственного интеллекта, признает, что предвидеть и предотвратить все виды неправомерного использования платформы сложно.«В последние годы многие платформы подверглись критике не только за неспособность предотвратить нежелательное поведение, но и за его поощрение или игнорирование перед лицом более мощных экономических стимулов», — сказал он.
А экономические стимулы приводят к другой форме неправомерного использования — той, в которой предприятия собирают данные от пользователей без прозрачности. Это привело к принятию законов о конфиденциальности, таких как Общий регламент ЕС по защите данных (GDPR) и Калифорнийский закон о конфиденциальности потребителей (COPA).
Самая большая угроза?
В то время как технологические компании обязаны учитывать этику при разработке, если кто-то намерен испортить часть технологии, он обязательно найдет способ. Слишком часто этим кем-то является национальное государство. Посмотрите на широко распространенное использование правительствами слежки за своими гражданами.
«По меньшей мере 75 из 176 стран мира активно используют технологии ИИ для целей наблюдения», — говорится в отчете Фонда Карнеги за международный мир за 2019 год «Глобальное расширение наблюдения ИИ».
Будь то ограничение доступа в Интернет для политической выгоды или использование камер с распознаванием лиц, чтобы держать граждан в узде, авторитарные правительства никогда не стесняются использовать любые доступные технологии для контроля над своими гражданами. Не так давно технологи-прогнозисты заявили, что «каждая новая технология на самом деле будет служить делу свободы и подорвет и ниспровергнет авторитарное правление», — недавно сказал Дэйву Дэвису из NPR Кай Стритматтер, писавший о технологиях и слежке. Вместо этого, по ее словам, правительства авторитарных стран используют технологии, чтобы укрепить свой контроль.
Этика в разработке
История полна сожалений. Дж. Роберт Оппенгеймер позже в жизни выразил смешанные чувства по поводу своей роли в разработке атомной бомбы. Итан Цукерман извинился за изобретение всплывающей рекламы.В 2017 году FaceApp, который использует технологию нейронных сетей для редактирования селфи, «принес извинения за построение расистского алгоритма», возможно, первое из многих подобных сожалений.
На самом деле невозможно полностью предотвратить неправильное использование продукта. Однако при разработке продуктов — или, в частности, при создании алгоритмов ИИ — этика требует, чтобы разработчики не только заглядывали в будущее, чтобы предвидеть неправомерное использование, но и признавали свои собственные человеческие слабости, чтобы подавлять предубеждения, которые могут повлиять на алгоритм. Борцы за этику, такие как Данциг, прилагают все усилия, чтобы доказать это.
«Предвзятость может проникать в системы ИИ из различных источников и может создавать опасности, которые не проявляются до тех пор, пока не будет нанесен ущерб», — сказал Данциг. Особенно проблематичным примером непреднамеренных последствий является использование больших данных при вынесении приговоров в суде. Алгоритмы машинного обучения, которые просматривают исторические данные, чтобы дать судьям рекомендации по вынесению приговора, привели к ужесточению наказаний для осужденных преступников из групп с низким доходом и меньшинств.
Аналогичные результаты могут иметь место и в других областях, например, когда ипотечные кредиторы определяют критерии для своих кредитных решений, отмечает Андуага из Cloudera. «Если одним из этих критериев является пол, раса или возраст, машина будет учитывать его так же, как и другие факторы. Поскольку машина без разбора просматривает данные, люди в бизнесе должны активно смягчать эту предвзятость или рисковать своим брендом, репутацией и доверием».
Apple и Goldman Sachs столкнулись с этим в 2019 году на собственном горьком опыте. Apple Card, выпущенная в сотрудничестве с Goldman Sachs, была осуждена за гендерную дискриминацию. Но после завершения расследования этого дела Департамент финансовых услуг штата Нью-Йорк не обнаружил доказательств незаконной дискриминации заявителей. На веб-странице веб-сайта Apple объясняются критерии одобрения карты.
Предотвращение неожиданных или проблемных результатов требует больших усилий. Во-первых, начните с хорошей модели, сказал Штифель.Затем вы должны предоставить ему правильные данные — много. «Например, алгоритм машинного обучения для ипотечного кредитования можно проверить на соответствие ряду требований, которым должен соответствовать человек-кредитор». Наконец, попросите сверстников просмотреть алгоритм; другой набор глаз может заметить проблемы, которые вы пропустили.
Компаниям, которые не знают, как подходить к вопросам этики, Данциг рекомендует «проконсультироваться с экспертами, которые специализируются на готовности к ИИ, предпочтительно с теми, кто не работает в организации».