0 просмотров

Опасности нерегулируемого искусственного интеллекта

За последнее десятилетие искусственный интеллект добился больших успехов и повлиял практически на все отрасли. В этой колонке утверждается, что нынешние технологии ИИ скорее приведут к различным неблагоприятным социальным последствиям, чем к обещанным выгодам. В нем приводятся примеры потенциальных опасностей для товарных рынков, рынков труда и демократических институтов и подчеркивается, что главная проблема заключается не в самом ИИ, а в том, как ведущие фирмы подходят к данным и их использованию. Политика должна быть направлена ​​на перенаправление технологических изменений на создание новых способностей и возможностей для работников и граждан.

Делиться

Авторы

Дарон Асемоглу

Профессор прикладной экономики MIT Sloan School of Management

Искусственный интеллект (ИИ) часто рекламируется как самая захватывающая технология нашего времени, обещающая изменить нашу экономику, жизнь и возможности. Некоторые даже считают, что ИИ неуклонно продвигается к развитию «интеллектуальных машин», которые вскоре превзойдут человеческие навыки в большинстве областей. ИИ действительно добился быстрого прогресса за последнее десятилетие или около того, особенно благодаря применению современных методов статистики и машинного обучения к огромным наборам неструктурированных данных. Он уже затронул почти все отрасли: алгоритмы ИИ теперь используются на всех онлайн-платформах и в самых разных отраслях: от производства до здравоохранения, финансов, оптовой и розничной торговли.Правительственные учреждения также начали полагаться на ИИ, особенно в системе уголовного правосудия, таможне и иммиграционном контроле.

Статья в тему:  Как начать карьеру искусственного интеллекта

В недавней статье (Acemoglu 2021) я утверждаю, что современные технологии искусственного интеллекта — особенно те, которые основаны на доминирующей в настоящее время парадигме, основанной на распознавании статистических образов и больших данных, — с большей вероятностью приведут к различным неблагоприятным социальным последствиям, а не к обещанным выгодам.

Этот вред можно увидеть на товарных рынках и в рекламе, с точки зрения неравенства, подавления заработной платы и сокращения рабочих мест на рынках труда, а также в более широких социальных последствиях ИИ в контексте социальной коммуникации, политического дискурса и демократии.

ИИ, контроль информации и товарные рынки

Во всех этих случаях основная проблема заключается не в технологиях ИИ как таковых, а в том, как ведущие фирмы, оказывающие подавляющее влияние на направление развития технологий ИИ, подходят к данным и их использованию.

Возьмите использование машинного обучения и методов работы с большими данными в рекламе и дизайне продуктов. Хотя, в принципе, эти методы могут принести пользу потребителям — например, за счет повышения качества продукции и обеспечения возможности индивидуальной настройки, — в конечном итоге они могут иметь различные неблагоприятные последствия для благосостояния потребителей. Начнем с того, что фирмы, которые получают больше информации о своих клиентах, могут использовать эти знания для ценовой дискриминации, потенциально получая больше ренты, которая в противном случае досталась бы потребителям. На олигополистическом рынке сбор данных о потребителях также может ослабить ценовую конкуренцию. Интуитивно это может произойти, когда ценовая дискриминация со стороны фирмы, обладающей превосходными знаниями, делает ее основную клиентуру менее привлекательной для других предприятий, побуждая их повышать цены. Это повышательное давление на цены, конечно же, еще больше нанесет ущерб благосостоянию потребителей.

Статья в тему:  Как США использует искусственный интеллект

Другие виды использования этих новых технологий могут нанести еще больший ущерб потребителям.Во-первых, онлайн-платформы могут контролировать чрезмерный объем информации о своих пользователях, потому что, когда они покупают или получают данные одних пользователей, они также предоставляют информацию о других пользователях. Этот тип «внешних данных» чаще всего возникает, когда пользователи напрямую раскрывают информацию о своих друзьях и контактах или когда они делятся информацией, коррелирующей с информацией других людей, принадлежащих к той же узкой демографической группе. Внешние эффекты данных могут привести к тому, что в руках компаний будет сосредоточено слишком много данных, что негативно скажется на конфиденциальности и потребительском излишке (Acemoglu et al. 2021b).

Хуже того, компании могут использовать свою превосходную информацию о предпочтениях потребителей, чтобы манипулировать их поведением (например, Zuboff 2019). Поведенческие манипуляции не распространены в моделях, в которых потребители полностью рациональны. Однако вполне вероятно, что потребители не до конца понимают, сколько новых методов сбора и обработки данных используется для отслеживания и прогнозирования их поведения. Основная идея такого манипулирования была понята правовыми аналитиками антимонопольного законодательства, такими как Хэнсон и Кисар, которые заметили, что «как только кто-то признает, что люди систематически ведут себя нерационально, с экономической точки зрения следует, что другие будут использовать эти тенденции для получения выгоды. (1999: 630). Действительно, реклама всегда включала некоторый элемент манипуляции. Однако масштабы таких манипуляций могли быть усилены инструментами ИИ. Уже есть несколько примеров манипуляций на основе ИИ. К ним относятся сеть магазинов Target, успешно предсказывающая беременных женщин и рассылающая им скрытую рекламу детских товаров, или различные компании, оценивающие «первичные моменты уязвимости» и рекламирующие товары, которые, как правило, импульсивно покупаются в такие моменты.Они также могут включать такие платформы, как YouTube и Facebook, использующие свои алгоритмы для оценки и предпочтения более захватывающих видео или новостных лент для определенных групп пользователей.

Статья в тему:  Что такое эвристический поиск в искусственном интеллекте

ИИ и неравенство на рынке труда

Влияние технологий на основе ИИ в контексте рынка труда может быть еще более пагубным. Неравенство на рынке труда увеличилось в США и некоторых других странах с развитой экономикой, и многие данные свидетельствуют о том, что это отчасти вызвано быстрым внедрением и внедрением технологий автоматизации, которые вытесняют работников с низкой и средней квалификацией с задач, которые они раньше выполняли (Асемоглу и Рестрепо 2021). Такая автоматизация и ее неблагоприятные последствия неравенства появились еще до появления ИИ. Тем не менее Acemoglu et al. (2021a) обнаружили, что ускорение развития ИИ в США с 2016 г. было направлено на автоматизацию и имело такие же последствия, как и другие технологии автоматизации. ИИ и широкое использование данных, вероятно, приумножат возможности автоматизации и, таким образом, могут усугубить тенденции неравенства, которые наблюдались в США и других странах с развитой экономикой за последние несколько десятилетий.

В принципе, автоматизация может повысить эффективность. Однако есть основания предполагать, что она может происходить неэффективно. Важной причиной этого является наличие несовершенства рынка труда, которое увеличивает стоимость труда для фирм выше его социальных альтернативных издержек. В соответствии с этим сценарием фирмы будут автоматизировать, чтобы переложить ренту с рабочих на себя, даже если такая автоматизация сократит общественный излишек.

Другие виды использования ИИ могут иметь еще более серьезные негативные последствия. К ним относятся использование ИИ и данных о рабочих местах для усиления контроля за работниками. Опять же, когда есть рента с рабочих (либо из-за переговоров, либо из соображений эффективной заработной платы), более тщательный контроль может быть выгоден для фирм, чтобы получить эту ренту обратно от рабочих.Но по той же причине такое перераспределение ренты социально неэффективно и чрезмерно — в крайнем случае, это затратная деятельность, которая не способствует общественному излишку, а передает его от одного набора агентов к другому.

Статья в тему:  Почему искусственный интеллект плохо опасен для общества казуальное эссе

ИИ, социальный дискурс и демократия

Автоматизация на основе ИИ может иметь и другие негативные последствия. Хотя это вряд ли приведет к массовой безработице в ближайшее время (а эффект от других технологий автоматизации на занятость до сих пор был скромным), перемещение рабочих имеет различные социальные разрушительные последствия. Граждане с меньшей привязанностью к работе могут меньше участвовать в гражданской деятельности и политике (Sandel 2020). Что еще более важно, автоматизация смещает баланс сил от труда к капиталу, и это может иметь далеко идущие последствия для функционирования демократических институтов. Иными словами, в той мере, в какой демократическая политика зависит от различных видов труда и капитала, обладающих уравновешивающими друг друга силами, автоматизация может нанести ущерб демократии, сделав труд необязательным в производственном процессе.

Воздействие ИИ на демократию не ограничивается его влиянием на автоматизацию. Одной из областей, которая до сих пор была наиболее радикально преобразована ИИ, является общение и потребление новостей, особенно через продукты и услуги, предлагаемые различными платформами социальных сетей. Использование ИИ и сбор пользовательских данных уже изменили социальный дискурс, и существующие данные свидетельствуют о том, что они способствовали поляризации и уменьшению общего понимания фактов и приоритетов, что имеет решающее значение для демократической политики (например, Леви 2021). Как предвидел Касс Санстейн 20 лет назад, «фрагментация и экстремизм… являются предсказуемыми последствиями любой ситуации, о которой единомышленники говорят только сами с собой». Он подчеркивал, что «без общего опыта гетерогенному обществу будет гораздо труднее решать социальные проблемы» (Санстейн 2001: 9).Действительно, социальные сети с искусственным интеллектом, по-видимому, способствовали такому типу фрагментации и экстремизма, с одной стороны, и распространению дезинформации, с другой (например, Vosoughi et al. 2018).

Статья в тему:  Как провести аудит искусственного интеллекта

Проблема направления технологии

Пока что тон этого эссе может создать впечатление, что ИИ неизбежно будет иметь катастрофические социальные последствия и что я решительно против этой технологии. Ни то, ни другое не верно. ИИ — перспективная технологическая платформа. Проблема заключается в текущем направлении, в котором эта технология развивается и используется: расширение прав и возможностей корпораций (а иногда и правительств) за счет работников и потребителей. Этот нынешний подход является следствием деловой практики и приоритетов корпораций, контролирующих ИИ, а также стимулов, которые он создает для исследователей ИИ.

Возьмите социальные сети. Основная причина проблем, которые я подчеркнул, заключается в том, что платформы пытаются максимизировать вовлеченность, гарантируя, что пользователи «зацепятся». Эта цель коренится в их бизнес-модели, которая сосредоточена на монетизации данных и потребительского трафика с помощью рекламы. Этому также способствует тот факт, что они не регулируются.

То же самое верно и в отношении негативных последствий автоматизации. ИИ можно использовать для повышения производительности труда людей и создания новых задач для рабочих (Acemoglu and Restrepo 2018). Тот факт, что он использовался преимущественно для автоматизации, является выбором. Такой выбор направления развития технологий обусловлен приоритетами и бизнес-моделями ведущих технологических компаний, ориентированными на алгоритмическую автоматизацию.

Более общая точка зрения заключается в том, что нынешний путь ИИ расширяет возможности корпораций за счет рабочих и граждан, а также часто предоставляет правительствам дополнительные инструменты контроля для наблюдения, а иногда даже подавления (например, новые методы цензуры и программное обеспечение для распознавания лиц).

Статья в тему:  Что такое искусственный интеллект простое определение

Вывод: необходимость регулирования

Это рассуждение приводит к простому выводу: текущие проблемы ИИ — это проблемы нерегулируемого ИИ, который игнорирует его более широкие социальные и распределительные последствия. На самом деле было бы наивно ожидать, что нерегулируемые рынки смогут найти правильный компромисс между общественными бедами и прибылью от монополизации данных.

Эта точка зрения также предполагает, что проблема заключается не только в монопольной власти. Если бы было больше, чем несколько крупных технологических компаний, нет никакой гарантии, что у них были бы разные бизнес-модели и разные подходы к ИИ. Следовательно, антимонопольное законодательство — не самый мощный и, конечно же, недостаточный инструмент для борьбы с потенциальным вредом ИИ. Вместо этого политика должна быть направлена ​​на переориентацию технологических изменений с автоматизации и сбора данных для расширения прав и возможностей корпораций на те, которые создают новые способности и возможности для работников и граждан. Он также должен уделять первоочередное внимание систематическому регулированию сбора и сбора данных и использованию новых методов искусственного интеллекта для манипулирования поведением пользователей, онлайн-общения и обмена информацией.

Учитывая всепроникающий характер ИИ и данных, я бы также предложил новый подход к регулированию, который можно назватьпринцип предупредительного регулирования’: предварительное регулирование должно замедлить использование технологий ИИ, особенно в областях, где компенсация затрат на ИИ становится более сложной с политической и социальной точек зрения после крупномасштабного внедрения.

Статья в тему:  Искусственный интеллект, как сделать его разумным

Технологии искусственного интеллекта, влияющие на политический дискурс и демократическую политику, могут быть первыми кандидатами на применение такого принципа осторожного регулирования. В той мере, в какой (чрезмерную) автоматизацию и ее социальные последствия также будет трудно обратить вспять, то же можно сказать и об использовании ИИ для автоматизации и мониторинга рынка труда.

использованная литература

Асемоглу, Д. (2021), «Вред ИИ», Оксфордский справочник по управлению ИИ, ожидается.

Асемоглу, Д. и П. Рестрепо (2018 г.), «Гонка между человеком и машиной: влияние технологий на рост, долю факторов производства и занятость», Американский экономический обзор 108(6): 1488—1542.

Асемоглу, Д. и П. Рестрепо (2019 г.), «Автоматизация и новые задачи: как технологии меняют спрос на рабочую силу», Журнал экономических перспектив 33(2): 3—30.

Асемоглу, Д. и П. Рестрепо (2021 г.), «Задачи, автоматизация и рост неравенства в оплате труда в США», рабочий документ NBER № 28920.

Асемоглу, Д., Д. Х. Аутор, Дж. Хазелл и П. Рестрепо (2021a), «ИИ и рабочие места: данные из онлайн-вакансий», рабочий документ NBER № 28257, готовится к публикации. Журнал экономики труда.

Асемоглу Д., Махдуми А., Малекян А. и Оздаглар А. (2021b), «Слишком много данных: цены и неэффективность рынков данных», Американский экономический журнал: Micro, ожидается.

Хэнсон, Дж. Д. и Д. А. Кисар (1999), «Серьезное отношение к бихевиорализму: некоторые свидетельства манипулирования рынком», Обзор права Нью-Йоркского университета 74: 630.

Статья в тему:  Почему белые люди одержимы искусственным интеллектом

Леви, Р. (2021 г.), «Социальные сети, потребление новостей и поляризация: данные полевого эксперимента», Американский экономический обзор 111(3): 831-870.

Сандел, М.Дж. (2020), Тирания заслуг: что стало с общим благом?, Нью-Йорк, штат Нью-Йорк: Penguin Press.

Санстейн, К. (2001), Республика.com, Принстон, Нью-Джерси: Издательство Принстонского университета.

Восуги, С., Д. Рой и С. Эйрал (2018 г.), «Распространение правдивых и ложных новостей в Интернете», Наука 359: 1146—1151.

Зубофф, С. (2019), Эпоха слежки за капитализмом: борьба за человеческое будущее на новом рубеже власти, Лондон, Великобритания: Профильные книги.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x