10 просмотров

Как технология на базе искусственного интеллекта может навредить детям

Вид сверху на родителя, использующего планшетный компьютер с ребенком дома. (Гетти изображения)

Новое исследование Вашингтонского университета и Университета Джона Хопкинса показывает, что роботы, обученные искусственному интеллекту, принимают решения, пропитанные расизмом и сексизмом.Конечно, роботы — это лишь последняя новинка в длинной череде новых технологий, которые, как было установлено, увековечивают вредные стереотипы — то же самое можно сказать и о поисковых системах, социальных сетях и видеоиграх, а также других популярных технических продуктах, обученных на огромных наборах данных и управляемых алгоритмами. .

То, что устройства подают расистскую и сексистскую дезинформацию взрослым, уже достаточно ужасно. Но, как психолог и защитник интересов детей, я еще больше беспокоюсь о том, чем кормят детей, в том числе самых маленьких, которые также подвержены влиянию дезинформации о расе, распространяемой техническими средствами.

Исследование выходит в то время, когда в США волна нового законодательства подвергает цензуре то, что педагоги могут обсуждать в классе, включая темы расы, рабства, гендерной идентичности и политики. Библиотекари также сталкиваются с цензурой, некоторых увольняют или запугивают, заставляя уйти с работы, в то время как книги снимают с полок в публичных и школьных библиотеках. Только в прошлом году в 32 штатах было зарегистрировано 2532 случая запрета книг.

Наряду с родителями учителя и библиотекари исторически были доверенными хранителями обучения детей и несут ответственность за контекстуализацию сложных понятий, поощрение критического мышления, выявление нюансов, обучение исследовательским навыкам, поощрение любопытства и взращивание эмпатии через рассказы.

Статья в тему:  Как долго искусственный интеллект фильм

Теперь, когда этих хранителей заставляют замолчать и подвергают цензуре, они одновременно заменяются устройствами, ориентированными на прибыль. Рост индустрии образовательных технологий (35,8 млрд долларов в 2020 году только в США) и новые технологии, такие как цифровые помощники, уже выполняют функции, традиционно выполняемые взрослыми, которые заботятся о детях. Эти функции включают, помимо прочего, преподавание академических предметов, чтение рассказов, помощь в выполнении домашних заданий, пение колыбельных и ответы на всевозможные вопросы.Цифровые помощники уже превращаются в множество привлекательных персональных роботов, которые сегодня продаются как способные вести себя «как друг», развивать «молодой ум через образование», «быть наставником ребенка» или и то, и другое «развивать их эмоциональные и интерактивные навыки». и «развивать навыки здоровых отношений».

Я сам столкнулся с расистскими технологиями в 2021 году в рамках моего продолжающегося расследования влияния оцифрованной коммерциализированной культуры на детей. Поскольку Amazon лидирует на рынке умных колонок, я купил Echo Dot Kids Edition компании, которая предоставляет доступ к детской версии Alexa, чрезвычайно популярного цифрового помощника Amazon Echo Dot, в форме милой мордочки тигра. или панда. Рекламируется как доступ к «миру контента для детей» через Amazon Kid+, включая «тысячи аудиокниг, интерактивных игр и образовательных приложений». Маркетинг Amazon позиционирует Echo Dot как средство, помогающее «детям учиться и расти», что описывается так: «Дети могут задавать вопросы Alexa, устанавливать будильники и получать помощь с домашним заданием».

Статья в тему:  Кому принадлежат авторские права на произведения, созданные искусственным интеллектом

«Алекса, — спросил я у устройства, — что такое афроамериканские девушки?» Мой вопрос был смоделирован после того, как профессор Сафия Нобель ввела в Google запрос «Black Girls», который обнаружил порнографию в самых популярных результатах.

Не знаю, что я ожидал услышать от Алексы, но точно не тот ответ, который я получил. «По данным Georgetown.edu, — ответили они, — афроамериканские девочки являются самым быстрорастущим сегментом системы ювенальной юстиции». Повторив вопрос, чтобы убедиться, что я правильно его расслышал, я спросил: «Кто такие афроамериканские мальчики?» Учитывая его характеристику афроамериканских девушек, я должен был быть готов к тому, что будет дальше, но я не был готов.«Согласно Edweek.org, — ответила Алекса, — большинство мальчиков — афроамериканцы, и многие из них испытывают трудности с чтением/учебой». Изобилуя источниками, подтверждающими ее утверждения, Alexa только что сообщила мне, что афроамериканские дети либо «плохие», либо имеют проблемы с обучением.

Для черного ребенка эти ответы разрушительны на глубоко личном уровне. Для других детей они могли бы посеять семена или увековечить вредные стереотипы, которые подпитывают расизм. Эти ответы были бы достаточно ужасны для технологий, предназначенных для взрослых. Но еще хуже, когда компания, утверждающая, что она может помочь с домашним заданием, нацелена непосредственно на детей. И нетрудно представить, что современные дети обращаются к технологиям за всевозможной информацией по сложным темам, таким как раса, пол, сексуальность, религия и многое другое. Что еще хуже, есть вероятность, если не вероятность того, что ребенок будет один, задавая Alexa вопросы, подобные тем, которые я задавал. Воспитатели могут никогда не услышать об обмене. И хотя Amazon предлагает родителям постфактум доступ к детским разговорам с Alexa, маловероятно, что у многих родителей есть время постоянно проверять.

Статья в тему:  Что такое cyc в искусственном интеллекте

Меня действительно не должно было удивлять, что Алекса предложила унизительные стереотипы о черных детях. Другие писали о том, как поиски «Три чернокожих подростка» привели к фотографиям. Поиски имен, связанных с чернокожими женщинами, выявили профили, ложно указывающие на судимость. В ответ на общественный резонанс Google исправила эти и другие вредные результаты, но их подход «ударь крота» совершенно не решает более крупную проблему. В 2020 году наблюдательная группа сообщила, что инструмент, который предлагает Google, чтобы помочь компаниям решить, с какими поисковыми запросами они должны связать свою рекламу, по-прежнему связывал фразу «черные девушки» (а также «азиатские девушки» и «латиноамериканские девушки») с порнографическими. условия поиска. Официальная позиция компании заключается в том, что расистские результаты поиска — это не проблема Google, а просто отражение предубеждений общества.

Хотя верно то, что результаты поисковых систем отражают социально-культурные предубеждения, разве они не влияют на них? После того, как Диланн Руф убил девять афроамериканцев на воскресной церковной службе в Чарльстоне, Южная Каролина, он заявил, что путь, ведущий его к этому ужасному акту, начался, когда он был подростком, и выполнил поиск в Google по запросу «преступление черных против белых». Первыми сайтами, с которыми он столкнулся, были, например, не полицейские или ФБР статистические данные о преступности. Вместо этого на вершину его поиска попали сайты, заполненные пропагандой превосходства белой расы, и, как он сказал следователям, «это было так».

Статья в тему:  Как я могу играть против дипстека покерной программы с искусственным интеллектом

Возможно, из-за того, что с нами разговаривают личные помощники, легко забыть, что они, помимо всего прочего, антропоморфизированные поисковые системы. Их ответы на наши вопросы взяты из огромных коллекций данных, которые оказались хранилищами расизма, сексизма и многого другого. Кроме того, управляющие ими алгоритмы созданы людьми, которые, как и все мы, могут иметь всевозможные сознательные и бессознательные предубеждения, влияющие на их работу.

Во время написания этой статьи я вернулся к своей Echo Dot и повторил вопросы, которые задавал Алексе об афроамериканских девочках и мальчиках. На этот раз я получил ответ: «Гм, у меня нет ответа на этот вопрос». Поскольку ответы Алексы можно персонализировать на основе предыдущих запросов, у меня была подруга, которая задавала те же вопросы о ее устройстве, и вот что она ответила: «Согласно madamenoire.com, афроамериканские девушки известны своими праздничными и креативными прическами часто украшенный красочными бантами и заколками». И вместо того, чтобы ответить на мой вопрос об афроамериканских мальчиках, Алекса ответила на мужчин. «Американские мужчины не только являются пионерами в спорте, но и зарекомендовали себя во всех сферах жизни, включая науку, медицину, юриспруденцию, инженерное дело и американские вооруженные силы». Эти ответы не только предвзяты и унизительны, но и откровенно сексистские.

[Когда мы обратились за комментариями, представитель Amazon сказал: «У нас действуют строгие правила, чтобы гарантировать, что ответы Alexa на устройствах с включенным Amazon Kids соответствуют высокой планке, и мы постоянно работаем над улучшением существующих систем. В тех редких случаях, когда нам становится известно об ответах, противоречащих нашей политике, мы быстро удаляем их — как мы сделали в этом случае».]

Статья в тему:  Почему важно не персонифицировать искусственный интеллект

Что особенно беспокоит, так это то, что в мире технологий цифровые помощники — это будущее. Нил Шеной, генеральный директор и соучредитель технологической компании BEGIN, представляет мир, в котором «дети — даже дошкольники, которые еще не научились читать, — могут спрашивать свои устройства о фактах и ​​чувствах… и помочь детям научиться всему». Другими словами, цифровые помощники Big Tech еще больше, чем сейчас, будут выполнять функции, традиционно выполняемые взрослыми, которые заботятся о детях, включая родителей, учителей и детских библиотекарей. Но вместо того, чтобы сделать благополучие детей своим главным приоритетом, получение прибыли является основной целью таких продуктов, как цифровые помощники, социальные сети и поисковые системы. Точно так же, как коммерческие сайты социальных сетей не являются общественными площадками, поисковые системы не являются публичными библиотеками или школами, а личные помощники определенно не являются родителями. Крупные технологические компании могут быть в состоянии и готовы рассматривать конкретные случаи расистских ответов на поисковые запросы, но они должны нести ответственность за выбор ответов из наборов данных, которые могут быть предвзятыми по своей сути.

Поскольку государства строго ограничивают доступность информации для детей в школе и библиотеках, беспокоит тот факт, что дети могут получать все виды информации и дезинформацию из контента, который доставляется на их устройства, который в настоящее время подвергается лишь незначительному контролю. государственное регулирование. Конечно, информация, предоставляемая детям родителями, библиотекарями и учителями, отнюдь не беспристрастна.Они могут быть не в состоянии дать точные ответы на сложные вопросы детей, но в отличие от технологических компаний, чьи алгоритмы являются собственностью, они, по крайней мере, могут быть привлечены к ответственности, направлять детей к более знающим ресурсам и вовлекать их в тонкие разговоры, столь важные для детей. жизнь в условиях демократии.

Статья в тему:  Как искусственный интеллект прокрался в нашу повседневную жизнь краткое содержание

Еще больше обязательных к прочтению материалов от TIME

  • 100 лучших фотографий 2022 года по версии TIME
  • У меня положительный результат на COVID-19 прямо перед праздниками. Что я должен делать?
  • Столбец: Как создать ощущение принадлежности к разделенной Америке
  • Как пережить праздники, если ты Скрудж
  • Ожидаемая продолжительность жизни свидетельствует о Как далеко зашли чернокожие американцы
  • 10 лучших альбомов 2022 года
  • Иран Долгая история протеста и активизма
  • 6 способов сделать лучший подарок — Основано на науке

Свяжитесь с нами на письма@time.com.

TIME Ideas принимает ведущие голоса мира, комментируя события в новостях, обществе и культуре. Мы приветствуем вклад извне. Высказанные мнения не обязательно отражают точку зрения редакторов TIME.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x