4 просмотров

Будущее искусственного интеллекта требует руководства со стороны социологии

В гонке за то, чтобы превзойти другие компании, дизайну искусственного интеллекта (ИИ) не хватает глубокого понимания того, что означают данные о людях и их связь с капиталом. Два социолога из Университета Дрекселя предлагают уделять больше внимания влиянию ИИ на общество, поскольку он появляется чаще, чем когда-либо прежде.

«Пандемия коронавируса ускорила использование ИИ и автоматизации для замены людей в рамках усилий по минимизации рисков, связанных с личными взаимодействиями», — сказала Келли Джойс, доктор философии, профессор Колледжа искусств. и наук и директор-основатель Центра науки, технологий и общества в Дрекселе. «Мы все чаще видим примеры алгоритмов, которые усиливают существующее неравенство. По мере того, как такие учреждения, как образование, здравоохранение, военное дело и работа, внедряют эти системы, мы должны исправить это неравенство».

В недавно опубликованной статье в Socius Джойс, Сьюзен Белл, доктор философии, профессор Колледжа искусств и наук, и их коллеги выражают обеспокоенность по поводу стремления быстро ускорить разработку ИИ в Соединенных Штатах без ускорения практики обучения и разработки, необходимой для сделать этические технологии. В статье предлагается исследовательская программа для социологии ИИ.

«Понимание социологией взаимосвязи между человеческими данными и давним неравенством необходимо для создания систем ИИ, способствующих равенству», — пояснил Джойс.

Как мы определяем ИИ?

Термин ИИ использовался по-разному, и ранние интерпретации связывают этот термин с программным обеспечением, которое способно учиться и действовать самостоятельно. Например, беспилотные автомобили изучают и определяют маршруты и препятствия — так же, как роботы-пылесосы определяют периметр или планировку дома, а умные помощники (Alexa или Google Assistant) определяют тон голоса и предпочтения своего пользователя.

Статья в тему:  Какие компании искусственного интеллекта создают секс-роботов

«Искусственный интеллект имеет гибкую область определения, которая помогает объяснить его привлекательность», — сказал Джойс. «Его обширное, но неуточненное значение позволяет промоутерам делать ориентированные на будущее, эмпирически необоснованные многообещающие заявления о его потенциальном положительном влиянии на общество».

Джойс, Белл и их коллеги объясняют, что в последние годы сообщества программистов в основном сосредоточились на разработке машинного обучения (МО) как формы ИИ. Термин «МО» чаще используется исследователями, чем термин «ИИ», хотя термин «ИИ» по-прежнему широко используется компаниями, институтами и инициативами. «ML делает упор на обучение компьютерных систем распознаванию, сортировке и прогнозированию результатов анализа существующих наборов данных», — пояснил Джойс.

Специалисты по искусственному интеллекту, специалисты по информатике, специалисты по данным и инженеры обучают системы распознавать, сортировать и прогнозировать результаты анализа существующих наборов данных. Люди вводят существующие данные, чтобы помочь обучать системы ИИ принимать автономные решения. Проблема здесь в том, что специалисты по ИИ обычно не понимают, почему данные о людях почти всегда являются данными о неравенстве.

«Практики ИИ могут не знать, что данные о X (например, почтовые индексы, медицинские записи, расположение автомагистралей) также могут быть данными о Y (например, класс, гендерное или расовое неравенство, социально-экономический статус)», — сказал Джойс, который ведущий автор статьи. «Они могут думать, например, что почтовые индексы — это нейтральные данные, применимые ко всем людям в равной степени, вместо того, чтобы понимать, что почтовые индексы часто также предоставляют информацию о расе и классе из-за сегрегации. Это непонимание привело к ускорению и усилению неравенства по мере разработки и развертывания систем машинного обучения».

«Выявляя корреляции между уязвимыми группами и жизненными шансами, системы ИИ принимают эти корреляции как причинно-следственную связь и используют их для принятия решений о вмешательстве в будущем.Таким образом, системы ИИ не создают нового будущего, а скорее воспроизводят устойчивое неравенство, существующее в конкретном социальном мире», — объясняет Джойс.

Статья в тему:  Как создать собственный искусственный интеллект

Угрожает ли ИИ системный расизм и человеческие предубеждения?

Есть политика, связанная с алгоритмами, данными и кодом. Возьмем поисковую систему Google. Хотя результаты поиска Google могут показаться нейтральными или единичными, поисковая система Google воссоздает сексизм и расизм, встречающиеся в повседневной жизни.

«Результаты поиска отражают решения, которые используются при создании алгоритмов и кодов, и отражают точку зрения сотрудников Google», — объясняет Белл. «В частности, их решения о том, что считать сексистским или расистским, отражают более широкие социальные структуры всепроникающего расизма и сексизма. В свою очередь, решения о том, что считать сексистским или расистским, «тренируют» систему отмывания денег. Хотя Google обвиняет пользователей в том, что они способствуют сексистским и расистским результатам поиска, источник кроется во «вводе».

Белл отмечает, что «в отличие от воспринимаемой нейтральности результатов поиска Google, в них заложены и усиливаются социальное угнетение и неравенство».

Еще одним примером, на который указывают авторы, являются системы искусственного интеллекта, которые используют данные из электронных медицинских карт (EHR) пациентов, чтобы делать прогнозы относительно соответствующих рекомендаций по лечению. Хотя специалисты по информатике и инженеры часто учитывают конфиденциальность при разработке систем ИИ, понимание многозначности человеческих данных обычно не является частью их обучения. Учитывая это, они могут предположить, что данные ЭУЗ представляют собой объективные знания о лечении и исходах, вместо того, чтобы рассматривать их через социологическую призму, которая признает, что данные ЭУЗ являются частичными и локализованными.

Статья в тему:  Как программисты создают искусственный интеллект с помощью кода

«При использовании социологического подхода, — объясняет Джойс, — вы понимаете, что результаты лечения пациентов не являются нейтральными или объективными — они связаны с социально-экономическим статусом пациентов и часто говорят нам больше о классовых различиях, расизме и других видах неравенства, чем об эффективности. конкретных методов лечения».

«Социологическое понимание данных важно, учитывая, что некритическое использование человеческих данных в социотехнических системах ИИ будет иметь тенденцию воспроизводить и, возможно, даже усугублять ранее существовавшее социальное неравенство», — сказал Белл. «Хотя компании, производящие системы искусственного интеллекта, прикрываются утверждениями о том, что алгоритмы или пользователи платформ создают расистские и сексистские результаты, социологические исследования иллюстрируют, как человек принимает решения на каждом этапе процесса кодирования».

В статье исследователи демонстрируют, что социологические исследования можно объединить с другими важными исследованиями в области социальных наук, чтобы избежать некоторых ловушек приложений ИИ. «Исследуя дизайн и реализацию социотехнических систем ИИ, социологическая работа позволяет увидеть человеческий труд и социальные контексты», — сказал Джойс. Основываясь на признании социологией важности организационного контекста в формировании результатов, в документе показано, что как источники финансирования, так и институциональный контекст являются ключевыми движущими силами разработки и использования систем ИИ.

Требует ли ИИ руководства со стороны социологии? Исследователи говорят, что да.

Джойс, Белл и их коллеги предполагают, что, несмотря на благонамеренные усилия по включению знаний о социальных мирах в социотехнические системы, ученые, занимающиеся ИИ, продолжают демонстрировать ограниченное понимание социального, отдавая приоритет тому, что может быть полезным для выполнения инженерных задач ИИ, но стирание сложности и укоренившихся социальных неравенств.

Статья в тему:  Как интуиция и эмоции будут представлены в искусственном интеллекте

«Глубоко структурный подход социологии также отличается от подходов, которые подчеркивают индивидуальный выбор», — сказал Джойс.«Один из самых распространенных тропов политического либерализма состоит в том, что социальные изменения обусловлены индивидуальным выбором. Логика гласит, что как личности мы можем создать более справедливое будущее, производя и выбирая лучшие продукты, методы и политических представителей. Мир технологий, как правило, придерживается аналогичной индивидуалистической точки зрения, когда его инженеры и специалисты по этике делают акцент на устранении предубеждений на индивидуальном уровне и улучшении обучения чувствительности как способе устранения неравенства в системах ИИ».

Джойс, Белл и их коллеги предлагают социологам использовать теоретические и методологические инструменты дисциплины для анализа того, когда и как системы ИИ делают неравенство более устойчивым. Исследователи подчеркивают, что создание социотехнических систем ИИ — это не просто вопрос технологического проектирования, но также поднимаются фундаментальные вопросы о власти и социальном порядке.

«Социологи обучены определять, как неравенство укоренено во всех аспектах общества, и указывать пути для структурных социальных изменений. Поэтому социологи должны играть ведущую роль в воображении и формировании будущего ИИ», — сказал Джойс.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x