Случаи, когда искусственный интеллект подвел нас
Искусственный интеллект медленно проникает во все аспекты нашего мира, от бизнеса до образования, правительства и наших домов. Хотя появление ИИ во многих отношениях сделало жизнь более эффективной, оно не застраховано от случайных ошибок. Люди не идеальны, и машины тоже.
Хотя ИИ предназначен для решения наших проблем, иногда он создает новые.В августе 2016 года Facebook заменил людей-редакторов раздела «Актуальные темы» алгоритмом после того, как столкнулся с обвинениями в политической предвзятости. Через несколько дней алгоритм выдал историю, в которой ложно утверждалось, что Мегин Келли была уволена из Фокс Новости за поддержку Хиллари Клинтон.
Беспилотные автомобили также работают на искусственном интеллекте. Tesla столкнулась с общественным вниманием в связи с автомобильными авариями, которые произошли, когда водители использовали режим «Автопилот», одна из которых закончилась смертельным исходом. Эти досадные инциденты напоминают нам, что мы не всегда можем полагаться на технологии.
В других случаях ИИ приводил к некоторым благоприятным, даже забавным результатам. От Amazon Alexa, случайно сыгравшего порно для малыша, до мошеннического робота на технической конференции — посмотрите на эти девять провалов ИИ.
1. Amazon Alexa устраивает вечеринку — и соседи вызывают полицию.
Оказывается, Алекса из Amazon любит вечеринки. На самом деле, одно устройство развлекалось так сильно, что появились копы. Когда Оливер Хаберстро, житель Гамбурга, Германия, отсутствовал однажды ночью, его Alexa случайно начала включать громкую музыку в 1:50 ночи. После стука в дверь и безрезультатного звонка в дом Хаберстро соседи вызвали полицию, чтобы закрыть это " партия." Когда полицейские в конце концов прибыли на место происшествия, они выломали входную дверь Хаберстро, чтобы войти, отключили Alexa от сети, а затем установили новый замок.
Не подозревая об инциденте, Хаберстро вернулся домой позже той же ночью и обнаружил, что его ключи больше не работают, поэтому ему пришлось отправиться в полицейский участок, забрать свои новые ключи и оплатить довольно дорогой счет слесаря.
2. Новостная рассылка побуждает устройства Amazon Alexa покупать кукольные домики.
Дети, покупающие товары без разрешения родителей, не являются чем-то из ряда вон выходящим, хотя с голосовыми устройствами, такими как Amazon Alexa, родители должны быть особенно осторожны.
Ранее в этом году 6-летняя девочка по имени Брук Нейцель заказала кукольный домик Kidcraft за 170 долларов и четыре фунта печенья через Amazon Alexa, просто попросив у Alexa продукты. Получив подтверждение о своих недавних покупках, мать Брук, Меган, сразу же поняла, что произошло, и с тех пор пожертвовала кукольный домик местной больнице и добавила в Alexa родительский контроль.
Однако история на этом не заканчивается. Новостной канал Сан-Диего CW6 сообщил об этом во время ежедневного утреннего шоу. Во время трансляции, когда ведущий новостей Джим Паттон сказал: «Мне нравится, как маленькая девочка говорит: «Алекса заказала мне кукольный домик», устройства Alexa в домах некоторых зрителей также срабатывали для заказа кукольных домиков. Хотя неизвестно, сколько устройств выполнили свою задачу. заказы на кукольные домики, ряд владельцев жаловались на попытку покупки Alexa.
3. Робот-контролер паспортов отклоняет заявку азиатского мужчины, потому что «глаза закрыты».
После попытки продлить свой паспорт Ричард Ли, 22-летний мужчина азиатского происхождения, получил отказ от Департамента внутренних дел Новой Зеландии после того, как его программное обеспечение заявило, что его глаза на фотографии закрыты.
Программное обеспечение для распознавания лиц отклонило фотографию Ли, и Ли пришлось связаться с отделом, чтобы поговорить с человеком и подтвердить свой новый паспорт.
Как оказалось, это не является чем-то из ряда вон выходящим, и почти 20 процентов представленных фотографий на паспорт отклоняются из-за ошибок программного обеспечения, сказал представитель департамента.
К счастью, Ли легко воспринял отказ. «Никаких обид с моей стороны. У меня всегда были очень маленькие глаза, а технология распознавания лиц относительно новая и несложная», — сказал Ли. Рейтер. «Это был робот, никаких обид. В конце концов мне продлили паспорт».
4. Alexa включает порно вместо детской песенки.
Детям, кажется, очень весело с голосовыми помощниками, такими как Amazon Alexa — может быть, слишком весело.
Когда малыш попросил Алексу своей семьи включить его любимую песню «Копальщик, копатель», Алекса услышал что-то еще. В ответ на запрос Алекса сказала: «Вы хотите услышать, как обнаружена порностанция… горячая цыпочка-любительница сексуальна». На этом грязный ум Алексы не остановился, и она продолжила называть несколько порнотерминов перед малышкой.
Инцидент также попал на пленку. То, что родители, вероятно, считали забавным и запоминающимся домашним видео, превратилось в непристойную встречу.
5. Предположительно дружелюбный к детям робот сходит с ума и ранит маленького мальчика.
На Китайской ярмарке высоких технологий в Шэньчжэне робот по имени Сяо Пан, также известный как «Маленький толстяк», напал на выставочный стенд и ранил маленького мальчика.
После того, как Сяо Пан неоднократно врезался в будку и разбросал осколки стекла по всему пространству, мальчик получил порезы и был доставлен в больницу на машине скорой помощи. К счастью, повреждения были минимальными, и пострадавшему наложили несколько швов.
С другой стороны, робот, который предназначен для взаимодействия с детьми в возрасте от 4 до 12 лет и отображения эмоций на экране, после инцидента, похоже, хмурился после инцидента, сообщили свидетели.
6. Роботы судят конкурсы красоты и не выбирают женщин с темной кожей.
От недобросовестной практики до давления на молодых участниц, конкурсы красоты часто подвергаются общественному контролю. Чтобы бороться с плохой репутацией, международный конкурс красоты Beauty.AI провел онлайн-конкурс красоты и использовал машину в качестве судьи.
Алгоритм машины должен был исследовать симметрию лица и выявлять морщины и дефекты, чтобы найти участников, которые лучше всего воплощали «человеческую красоту».
Алгоритм не отдавал предпочтение женщинам с темной кожей. Свои фотографии прислали шесть тысяч человек из разных стран мира, а позже были объявлены 44 победителя — только у одного из них была смуглая кожа.
7. Чат-бот Microsoft в Twitter становится антифеминистским и прогитлеровским.
Расизм, кажется, проблема с ИИ.
В марте 2016 года Microsoft представила своего чат-бота с искусственным интеллектом в Твиттере «Tay». Экспериментируя с «разговорным пониманием», Тай должен был общаться с людьми и становиться умнее, чем больше он общался и общался.
Люди начали писать грубые, расистские и неуместные комментарии в адрес бота. Узнав из разговора, Тай сам начал использовать такой язык. За считанные часы он превратился в оскорбительный, вульгарный, прогитлеровский аккаунт в Твиттере, в некоторых случаях называющий феминизм «культом» или «раком» и говорящий: «Я чертовски ненавижу феминисток и они все должны умереть и сгореть в ***».
8. Google Brain превращает изображения с низким разрешением в пиксельных монстров.
Пытаясь улучшить пиксельные изображения с низким разрешением, Google Brain в некоторых случаях превращал их в монстроподобные изображения людей.
Хотя изображение, полученное в результате его «пиксельно-рекурсивного суперрешения», может выглядеть не идеально — на самом деле это далеко не так — Google Brain — это большой шаг вперед по сравнению с предыдущими попытками сделать нечеткие фотографии четкими. Используя нейронные сети, новая технология сравнивает изображение низкого разрешения с фотографиями высокого разрешения в базе данных. Затем он угадывает, где разместить определенные цвета и детали, основываясь на фотографиях с более высоким разрешением.
Это только начало, но некоторые результаты были довольно ужасающими.
9. Робот не может поступить в колледж.
Люди часто опасаются, что роботы в конечном итоге станут умнее людей и захватят мир. Чтобы успокоиться (на данный момент), утешайтесь тем фактом, что этот робот даже не смог поступить в колледж.
В 2011 году группа исследователей начала работу над роботом под названием «Робот Тодай», которого они намеревались принять в конкурентоспособный японский университет Токио. Сдав вступительные экзамены в национальные университеты Японии в 2015 году, робот не смог набрать достаточно высокий балл, чтобы поступить в колледж. Год спустя робот предпринял еще одну попытку и снова набрал слишком мало баллов — на самом деле за два года робот не показал значительных улучшений.
В ноябре 2016 года исследователи окончательно отказались от проекта.