7 просмотров

Как технические гиганты разрабатывают настоящую этику для искусственного интеллекта

Отправить историю любому другу Как подписчик, у вас есть 10 подарочных статей давать каждый месяц. Любой может прочитать то, чем вы делитесь.

Дайте эту статью Дайте эту статью Дайте эту статью

На церемонии награждения главы Facebook Марка Цукерберга в феврале. Исследователи из его компании, наряду с Amazon, IBM и другими, встречаются, чтобы обсудить влияние искусственного интеллекта на рабочие места, транспорт и даже военные действия.

  • 1 сентября 2016 г.

САН-ФРАНЦИСКО. В течение многих лет создатели научно-фантастических фильмов заставляли нас бояться того плохого, что машины с искусственным интеллектом могут сделать со своими создателями-людьми. Но в ближайшее десятилетие или два больше всего нас будет беспокоить то, что роботы лишат нас работы или врежутся в нас на шоссе.

Теперь пять крупнейших мировых технологических компаний пытаются создать стандарт этики в отношении создания искусственного интеллекта. В то время как научная фантастика сосредоточилась на экзистенциальной угрозе ИИ.Для людей исследователи материнской компании Google, Alphabet, а также представители Amazon, Facebook, IBM и Microsoft встретились, чтобы обсудить более осязаемые вопросы, такие как влияние искусственного интеллекта на человека. на работу, транспорт и даже войну.

Технологические компании уже давно переоценивают возможности машин с искусственным интеллектом. Однако в последние годы А.И. Поле добилось быстрого прогресса в ряде областей, от беспилотных автомобилей и машин, которые понимают речь, таких как устройство Amazon Echo, до нового поколения систем вооружения, которые угрожают автоматизировать боевые действия.

Специфика того, что отраслевая группа будет делать или говорить, — даже ее название — еще предстоит уточнить. Но основной замысел ясен: добиться того, чтобы А.И. исследование направлено на то, чтобы принести людям пользу, а не навредить им, по словам четырех человек, участвовавших в создании отраслевого партнерства, которые не уполномочены говорить об этом публично.

Статья в тему:  Красное смещение что такое искусственный интеллект

Важность отраслевых усилий подчеркивается в отчете, опубликованном в четверг группой Стэнфордского университета, финансируемой Эриком Хорвицем, исследователем Microsoft, который является одним из руководителей отраслевых дискуссий. Стэнфордский проект под названием «Столетнее исследование искусственного интеллекта» излагает план подготовки подробного отчета о влиянии ИИ на людей. на общество каждые пять лет в течение следующего столетия.

Подробнее о больших технологиях

  • Майкрософт: Сделка компании с Activision Blizzard на сумму 69 миллиардов долларов, которая основана на получении одобрения 16 правительств, стала проверкой того, могут ли технологические гиганты покупать компании в условиях отрицательной реакции.
  • Яблоко: Крупнейший завод Apple по производству iPhone в городе Чжэнчжоу, Китай, испытывает нехватку рабочих. Теперь этому заводу помогает неожиданный источник: китайское правительство.
  • Амазонка: Похоже, что компания собирается уволить около 10 000 человек в корпоративной и технологической сферах, что станет крупнейшим сокращением в истории компании.
  • Мета: Материнская компания Facebook заявила, что увольняет более 11 000 человек, или около 13 процентов своей рабочей силы.

Одной из основных проблем для людей в технологической отрасли было бы, если бы регулирующие органы вскочили, чтобы создать правила вокруг их ИИ. Работа. Поэтому они пытаются создать основу для организации самоконтроля, хотя пока неясно, как она будет функционировать.

«Мы не говорим, что не должно быть никакого регулирования», — сказал Питер Стоун, ученый-компьютерщик из Техасского университета в Остине и один из авторов Стэнфордского доклада. «Мы говорим, что есть правильный путь и неправильный путь».

Статья в тему:  Искусственный интеллект, как доказать коммутативное свойство

Хотя технологическая отрасль известна своей конкурентоспособностью, были случаи, когда компании работали вместе, когда это было в их интересах. Например, в 1990-х годах технологические компании договорились о стандартном методе шифрования транзакций электронной торговли, заложив основу для двух десятилетий роста интернет-бизнеса.

Авторы Стэнфордского доклада под названием «Искусственный интеллект и жизнь в 2030 году» утверждают, что регулировать ИИ будет невозможно. «Консенсус исследовательской группы заключается в том, что попытки регулировать А.И. вообще было бы заблуждением, так как нет четкого определения А.И. (это не что-то одно), и риски и соображения сильно различаются в разных областях», — говорится в отчете.

Изображение

Слева направо: Джефф Безос из Amazon, Вирджиния Рометти из IBM, Сатья Наделла из Microsoft, Сундар Пичаи из Google и Марк Цукерберг из Facebook. Кредит. Эрик Рисберг/Associated Press

По словам доктора Стоуна, одной из рекомендаций в отчете является повышение осведомленности и опыта в области искусственного интеллекта на всех уровнях правительства. Он также призывает к увеличению государственных и частных расходов на ИИ.

«У правительства есть роль, и мы уважаем это», — сказал Дэвид Кенни, генеральный менеджер подразделения искусственного интеллекта IBM Watson. По его словам, проблема заключается в том, что «политика часто отстает от технологий».

Среди пяти компаний распространяется меморандум с предварительным планом объявить о новой организации в середине сентября. Один из нерешенных вопросов заключается в том, что Google DeepMind, дочерняя компания Alphabet, попросила об отдельном участии, по словам человека, участвовавшего в переговорах.

Статья в тему:  Как искусственный интеллект улучшает страховую отрасль

А.И. Промышленная группа создана по образцу аналогичной инициативы в области прав человека, известной как Глобальная сетевая инициатива, в которой корпорации и неправительственные организации сосредоточены на свободе выражения мнений и правах на неприкосновенность частной жизни, по словам кого-то, проинформированного организаторами отрасли, но не уполномоченного говорить об этом публично.

Кроме того, Рейд Хоффман, основатель LinkedIn, имеющий опыт работы в области искусственного интеллекта, ведет переговоры с Медиа-лабораторией Массачусетского технологического института о финансировании проекта, исследующего социальные и экономические последствия искусственного интеллекта.

Оба M.I.T. усилия и отраслевое партнерство пытаются более тесно связать технологические достижения с вопросами социальной и экономической политики. Массачусетский технологический институт группа обсуждает идею разработки нового ИИ. и роботизированные системы с «обществом в курсе».

Эта фраза является отсылкой к давним дебатам о разработке компьютерных и роботизированных систем, которые по-прежнему требуют взаимодействия с людьми. Например, Пентагон недавно начал формулировать военную стратегию, призывающую к использованию ИИ. в котором люди продолжают контролировать решения об убийстве, а не делегируют эту ответственность машинам.

«Главное, на что я хотел бы обратить внимание, это то, что компьютерщики плохо взаимодействуют с социологами и философами», — сказал Джоичи Ито, директор медиа-лаборатории Массачусетского технологического института и член совета директоров The New York. раз. «Что мы хотим сделать, так это поддержать и укрепить социологов, которые проводят исследования, которые будут играть роль в разработке политики».

Статья в тему:  Как победить системы искусственного интеллекта, обрабатывающие естественный язык

В Стэнфордском отчете делается попытка определить проблемы, с которыми жители типичного североамериканского города столкнутся при использовании компьютеров и роботизированных систем, имитирующих человеческие возможности. Авторы исследуют восемь аспектов современной жизни, включая здравоохранение, образование, развлечения и трудоустройство, но специально не рассматривают вопрос ведения войны. Говорили, что военный А.И. приложения выходили за рамки их текущих возможностей и опыта, но они не исключали сосредоточения внимания на оружии в будущем.

В отчете также не учитывается мнение некоторых компьютерных специалистов о возможности «сингулярности», которая может привести к созданию более умных машин, которые, возможно, будут угрожать людям.

«Это было сознательное решение не доверять этому в отчете», — сказал доктор Стоун.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x