Проблема белого парня искусственного интеллекта
Отправить историю любому другу Как подписчик, у вас есть 10 подарочных статей давать каждый месяц. Любой может прочитать то, чем вы делитесь.
Дайте эту статью Дайте эту статью Дайте эту статью
СОГЛАСНО некоторым видным представителям мира технологий, искусственный интеллект представляет собой надвигающуюся экзистенциальную угрозу человечеству: предупреждения таких светил, как Илон Маск и Ник Бостром, о «сингулярности» — когда машины становятся умнее людей — привлекли миллионы долларов и породили множество конференций.
Но это выкручивание рук отвлекает от очень реальных проблем с искусственным интеллектом сегодня, которые уже могут усугублять неравенство на рабочем месте, дома и в наших юридических и судебных системах. Сексизм, расизм и другие формы дискриминации встроены в алгоритмы машинного обучения, лежащие в основе технологии многих «интеллектуальных» систем, которые определяют, как нас классифицируют и рекламируют.
Возьмем небольшой прошлогодний пример: пользователи обнаружили, что фотоприложение Google, которое применяет автоматические метки к изображениям в цифровых фотоальбомах, классифицирует изображения чернокожих как горилл.Google извинился; это было непреднамеренно.
Но аналогичные ошибки возникли в программном обеспечении камеры Nikon, которое ошибочно интерпретировало изображения азиатских людей как моргающие, и в программном обеспечении веб-камеры Hewlett-Packard, которое с трудом распознавало людей с темным оттенком кожи.
Это в основном проблема данных. Алгоритмы обучаются, получая определенные изображения, часто выбранные инженерами, и система строит модель мира на основе этих изображений. Если система обучается на фотографиях преимущественно белых людей, ей будет труднее распознавать небелые лица.
Очень серьезный пример был обнаружен в расследовании, опубликованном в прошлом месяце ProPublica. Выяснилось, что широко используемое программное обеспечение, которое оценивало риск рецидивизма среди преступников, в два раза чаще ошибочно помечало чернокожих подсудимых как подверженных более высокому риску совершения преступлений в будущем. Кроме того, вероятность того, что белые подсудимые будут ошибочно отмечены как низкий риск, была в два раза выше.
Причина, по которой эти прогнозы настолько искажены, до сих пор неизвестна, потому что компания, ответственная за эти алгоритмы, держит свои формулы в секрете — это конфиденциальная информация. Судьи по-разному полагаются на машинные оценки рисков — некоторые могут даже полностью их не учитывать, — но они мало что могут сделать, чтобы понять логику, стоящую за ними.
Полицейские департаменты по всей территории Соединенных Штатов также внедряют инструменты оценки рисков на основе данных в рамках усилий по предупреждению преступности с помощью «прогнозной полиции». Во многих городах, включая Нью-Йорк, Лос-Анджелес, Чикаго и Майами, программный анализ больших наборов исторических данных о преступности используется для прогнозирования наиболее вероятных очагов преступности; затем полиция направляется в эти районы.
По крайней мере, это программное обеспечение рискует увековечить и без того порочный круг, в котором полиция увеличивает свое присутствие в тех же местах, которые она уже охраняет (или чрезмерно охраняет), тем самым гарантируя, что в этих областях будет происходить больше арестов.В Соединенных Штатах это может привести к усилению наблюдения в традиционно более бедных, небелых районах, в то время как богатые, более белые районы подвергаются еще меньшему контролю. Прогнозные программы хороши ровно настолько, насколько хороши данные, на которых они обучаются, а эти данные имеют сложную историю.
Истории дискриминации могут жить на цифровых платформах, и если они не подвергаются сомнению, они становятся частью логики повседневных алгоритмических систем. Еще один скандал возник недавно, когда выяснилось, что служба доставки Amazon в тот же день недоступна для почтовых индексов в преимущественно чернокожих районах. Упущенные из виду области были удивительно похожи на те, которые пострадали от красной черты ипотеки в середине 20-го века. Amazon пообещал устранить пробелы, но это напоминает нам, как системное неравенство может преследовать машинный интеллект.
А тут дискриминация по половому признаку. В июле прошлого года компьютерщики из Университета Карнеги-Меллона обнаружили, что женщинам реже, чем мужчинам, показывают объявления в Google о высокооплачиваемых вакансиях. Из-за сложности того, как поисковые системы показывают рекламу интернет-пользователям, трудно сказать, почему это произошло — предпочитали ли рекламодатели показывать рекламу мужчинам или результат был непреднамеренным следствием задействованных алгоритмов.
Как бы то ни было, алгоритмические изъяны нелегко обнаружить: откуда женщине знать, что нужно устраиваться на работу, которую она никогда не видела в рекламе? Как чернокожее сообщество могло узнать, что программное обеспечение чрезмерно контролирует его?
Нам нужно быть бдительными в отношении того, как мы проектируем и обучаем эти системы машинного обучения, иначе мы увидим укоренившиеся формы предвзятости, встроенные в искусственный интеллект будущего.
Как и все предшествующие технологии, искусственный интеллект будет отражать ценности его создателей. Таким образом, инклюзивность имеет значение — от того, кто ее разрабатывает, до того, кто входит в совет директоров компании и какие этические точки зрения учитываются.В противном случае мы рискуем создать искусственный интеллект, отражающий узкое и привилегированное видение общества с его старыми, знакомыми предубеждениями и стереотипами.
Если мы посмотрим на то, как системы могут быть дискриминационными сейчас, у нас будет гораздо больше возможностей для разработки более справедливого искусственного интеллекта. Но это требует гораздо большей ответственности от технического сообщества. Правительства и государственные учреждения также могут внести свой вклад: инвестируя в прогностические технологии, они должны соблюдать справедливость и соблюдать надлежащие правовые процедуры.
В то время как технология машинного обучения может предложить неожиданные идеи и новые формы удобства, мы должны учитывать текущие последствия для сообществ, у которых меньше власти, для тех, кто не доминирует в элитных кругах Силиконовой долины.
В настоящее время самые громкие голоса, обсуждающие потенциальную опасность сверхразума, исходят от богатых белых мужчин, и, возможно, для них самая большая угроза является появление искусственного интеллекта высшего хищника.
Но для тех, кто уже сталкивается с маргинализацией или предвзятостью, существуют угрозы.