3 просмотров

Большое обещание, но потенциальная опасность

«Могут ли умные машины перехитрить нас, или некоторые элементы человеческого суждения необходимы для принятия решений в самых важных жизненных вопросах?»

— Майкл Сандел, политический философ и профессор государственного управления Энн Т. и Роберт М. Басс.

По словам Фуллера, хотя автоматизация никуда не денется, ликвидация целых категорий профессий, таких как сборщики дорожных сборов, которые были заменены датчиками из-за распространения ИИ.

«То, что мы увидим, — это рабочие места, требующие человеческого взаимодействия, эмпатии, которые требуют применения суждений к тому, что создает машина [будет] иметь надежность», — сказал он.

В то время как крупный бизнес уже имеет огромный старт, малые предприятия также потенциально могут быть преобразованы с помощью ИИ, говорит Карен Миллс '75, MBA '77, которая руководила Администрацией малого бизнеса США с 2009 по 2013 год. Половина страны занята малым бизнесом. до пандемии COVID-19 это могло иметь серьезные последствия для национальной экономики в долгосрочной перспективе.

Вместо того, чтобы мешать малым предприятиям, технология может дать их владельцам новые подробные сведения о тенденциях продаж, денежных потоках, заказах и другую важную финансовую информацию в режиме реального времени, чтобы они могли лучше понять, как работает бизнес и где могут возникнуть проблемные области, не задумываясь. нанять кого-нибудь, стать финансовым экспертом или тратить часы на бухгалтерию каждую неделю, сказал Миллс.

Статья в тему:  Как проверить рейтинг искусственного интеллекта

Одной из областей, где ИИ может «полностью изменить игру», является кредитование, где доступ к капиталу затруднен отчасти из-за того, что банки часто пытаются получить точную картину жизнеспособности и кредитоспособности малого бизнеса.

«Гораздо сложнее заглянуть внутрь бизнеса и узнать, что происходит», чем оценить человека, сказала она.

Непрозрачность информации делает процесс кредитования трудоемким и дорогим как для потенциальных заемщиков, так и для кредиторов, а приложения предназначены для анализа более крупных компаний или тех, кто уже брал взаймы, что является неотъемлемым недостатком для определенных видов бизнеса и для заемщиков, исторически недостаточно обслуживаемых. как женщины и владельцы бизнеса из числа меньшинств, сказал Миллс, старший научный сотрудник HBS.

Но с программным обеспечением на основе ИИ, которое извлекает информацию из банковского счета компании, налогов и бухгалтерских записей в Интернете и сравнивает ее с данными тысяч аналогичных предприятий, даже небольшие общественные банки смогут делать обоснованные оценки за считанные минуты, без агонии бумажной работы. и задержек, и, как слепые прослушивания для музыкантов, не опасаясь, что какая-то несправедливость закралась в принятие решения.

«Все это уходит», — сказала она.

Внешний вид объективности

Однако не все видят голубое небо на горизонте. Многие беспокоятся о том, принесет ли грядущий век ИИ новые, более быстрые и удобные способы различения и деления в масштабе.

Статья в тему:  Что такое вопросы на собеседовании с искусственным интеллектом

«Отчасти привлекательность алгоритмического принятия решений заключается в том, что он, кажется, предлагает объективный способ преодоления человеческой субъективности, предубеждений и предубеждений», — сказал политический философ Майкл Сандел, профессор государственного управления Энн Т. и Роберт М. Басс. «Но мы обнаруживаем, что многие из алгоритмов, которые решают, например, кто должен получить условно-досрочное освобождение или кому должны быть предоставлены возможности трудоустройства или жилья… воспроизводят и внедряют предубеждения, которые уже существуют в нашем обществе».

Карен Миллс.

«Если мы не будем вдумчивыми и осторожными, мы снова получим красную черту».

— Карен Миллс, старший научный сотрудник бизнес-школы и глава Управления по делам малого бизнеса США с 2009 по 2013 год.

ИИ представляет три основные области этической озабоченности общества: неприкосновенность частной жизни и слежка, предвзятость и дискриминация и, возможно, самый глубокий и сложный философский вопрос эпохи — роль человеческого суждения, — сказал Сандел, который преподает курс моральных, социальных и политические последствия новых технологий.

«Споры о гарантиях конфиденциальности и о том, как преодолеть предвзятость в алгоритмическом принятии решений при вынесении приговоров, условно-досрочном освобождении и практике трудоустройства, уже знакомы», — сказал Сандел, имея в виду сознательные и бессознательные предубеждения разработчиков программ и тех, кто встроен в наборы данных, используемые для обучения. программное обеспечение. «Но мы еще не осознали самый сложный вопрос: могут ли умные машины перехитрить нас или необходимы определенные элементы человеческого суждения при принятии решений о некоторых из самых важных вещей в жизни?»

Статья в тему:  Каким будет будущее искусственного интеллекта

Паника из-за того, что ИИ внезапно привносит предвзятость в повседневную жизнь в массовом порядке завышена, говорит Фуллер. Во-первых, деловой мир и рабочие места, изобилующие принятием решений людьми, всегда были пронизаны «всевозможными» предубеждениями, которые мешают людям заключать сделки или заключать контракты и работать.

По словам Фуллера, при тщательной калибровке и продуманном развертывании программное обеспечение для проверки резюме позволяет рассматривать более широкий круг кандидатов, чем это можно было бы сделать в противном случае, и должно свести к минимуму возможность фаворитизма, связанного с привратниками-людьми.

Сандель не согласен. «ИИ не только воспроизводит человеческие предубеждения, он придает этим предубеждениям своего рода научную достоверность. Создается впечатление, что эти прогнозы и суждения имеют объективный статус», — сказал он.

По словам Миллса, в мире кредитования решения, основанные на алгоритмах, имеют потенциальную «темную сторону». По мере того, как машины учатся на наборах данных, которые им вводят, шансы «довольно высоки», что они могут повторить многие прошлые неудачи банковской индустрии, которые привели к систематическому неравному обращению с афроамериканцами и другими маргинализованными потребителями.

«Если мы не будем вдумчивыми и осторожными, мы снова получим красную черту», ​​— сказала она.

Строго регулируемая отрасль, банки по закону находятся на крючке, если алгоритмы, которые они используют для оценки кредитных заявок, в конечном итоге ненадлежащим образом дискриминируют классы потребителей, поэтому те, кто «на высшем уровне» в этой области, «очень сосредоточены» прямо сейчас на этом вопросе. , — сказал Миллс, внимательно изучающий быстрые изменения в финансовых технологиях или «финтех».

Статья в тему:  Искусственный интеллект, что ты хочешь, чтобы я увидел?

«Они действительно не хотят дискриминации. Они хотят получить доступ к капиталу самых кредитоспособных заемщиков», — сказала она. — Для них это тоже хороший бизнес.

Надзор перегружен

Учитывая его мощь и ожидаемое повсеместное распространение, некоторые утверждают, что использование ИИ должно жестко регулироваться. Но нет единого мнения о том, как это должно быть сделано и кто должен устанавливать правила.

До сих пор компании, которые разрабатывают или используют системы ИИ, в основном контролируют себя, полагаясь на существующие законы и рыночные силы, такие как негативная реакция потребителей и акционеров или требования высоко ценимых технических специалистов по ИИ, чтобы держать их в узде.

«На планете нет ни одного бизнесмена на предприятии любого размера, который не беспокоился бы об этом и не пытался бы подумать о том, что будет политически, юридически, регулятивно [или] этически приемлемым», — сказал Фуллер.

По его словам, фирмы уже рассматривают свою потенциальную ответственность за неправомерное использование до запуска продукта, но нереалистично ожидать, что компании будут предвидеть и предотвращать все возможные непреднамеренные последствия их продукта.

Мало кто думает, что федеральное правительство справится с этой задачей или когда-либо справится с ней.

«Регуляторные органы не обладают опытом в области искусственного интеллекта, чтобы заниматься [надзором] без реального внимания и инвестиций», — сказал Фуллер, отметив, что быстрые темпы технологических изменений означают, что даже самые информированные законодатели не могут идти в ногу.Требовать, чтобы каждый новый продукт, использующий ИИ, предварительно проверялся на предмет потенциального социального вреда, не только непрактично, но и создало бы огромное препятствие для инноваций.

Статья в тему:  В чем разница между искусственным интеллектом и квантовыми вычислениями

Джейсон Фурман.

«У меня не было бы центральной группы искусственного интеллекта, в которой есть подразделение, занимающееся автомобилями, я бы хотел, чтобы у специалистов по автомобилям было подразделение, состоящее из людей, которые действительно хорошо разбираются в искусственном интеллекте».

— Джейсон Фурман, профессор практики экономической политики в Школе Кеннеди и бывший главный экономический советник президента Барака Обамы.

Джейсон Фурман, профессор практики экономической политики в Гарвардской школе Кеннеди, согласен с тем, что государственным регулирующим органам нужно «гораздо лучшее техническое понимание искусственного интеллекта, чтобы хорошо выполнять эту работу», но говорит, что они могут это сделать.

По его словам, существующие органы, такие как Национальная ассоциация безопасности дорожного движения, которая, например, следит за безопасностью транспортных средств, могли бы решать потенциальные проблемы с искусственным интеллектом в автономных транспортных средствах, а не отдельное наблюдательное агентство.

«У меня не было бы центральной группы ИИ, в которой есть подразделение, занимающееся производством автомобилей, я бы хотел, чтобы у специалистов по автомобилям было подразделение людей, которые действительно хороши в ИИ», — сказал Фурман, бывший главный экономический советник президента Барака Обамы.

Хотя сохранение регулирования ИИ в отраслях оставляет открытой возможность совместного правоприменения, Фурман сказал, что отраслевые комиссии будут гораздо лучше осведомлены об всеобъемлющей технологии, частью которой ИИ является, что обеспечит более тщательный надзор.

В то время как в Европейском союзе уже действуют строгие законы о конфиденциальности данных, а Европейская комиссия рассматривает формальную нормативную базу для этического использования ИИ, правительство США исторически опаздывало, когда дело доходит до технического регулирования.

Статья в тему:  Кто лидирует в области искусственного интеллекта

«Я думаю, что нам нужно было начать три десятилетия назад, но лучше поздно, чем никогда», — сказал Фурман, который считает, что для того, чтобы заставить законодателей действовать, необходимо «ощущение безотлагательности».

Бизнес-лидеры «не могут иметь и то, и другое», отказываясь от ответственности за пагубные последствия ИИ, а также борясь с государственным надзором, утверждает Сандел.

«Проблема в том, что эти крупные технологические компании не саморегулируются и не подлежат адекватному государственному регулированию. Я думаю, что должно быть больше и того, и другого», — сказал он, добавив позже: «Мы не можем предполагать, что рыночные силы сами по себе разберутся. Это ошибка, как мы видели на примере Facebook и других технологических гигантов».

Прошлой осенью Сэндел вел «Техническую этику», популярный новый курс Gen Ed вместе с Дугом Мелтоном, содиректором Гарвардского института стволовых клеток. Как и в его легендарном курсе «Справедливость», студенты рассматривают и обсуждают важные вопросы о новых технологиях, от редактирования генов и роботов до конфиденциальности и наблюдения.

«Компании должны серьезно задуматься об этических аспектах того, что они делают, и мы, как демократические граждане, должны узнать о технологиях и их социальных и этических последствиях — не только для того, чтобы решить, какими должны быть правила, но и для того, чтобы решить, какую роль мы хотим, чтобы большие технологии и социальные сети играли в нашей жизни», — сказал Сандел.

Статья в тему:  Что такое модельный агент в искусственном интеллекте

По его словам, для этого потребуется серьезное образовательное вмешательство как в Гарварде, так и в системе высшего образования в целом.

«Мы должны дать всем учащимся возможность достаточно узнать о технологиях и об этических последствиях новых технологий, чтобы, когда они управляют компаниями или действуют как демократические граждане, они могли гарантировать, что технологии служат человеческим целям, а не подрывают достойная гражданская жизнь».

Далее: Революция ИИ в медицине может улучшить персонализированное лечение, заполнить пробелы в доступе к медицинской помощи и сократить бюрократическую волокиту. И все же рисков предостаточно.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x