28 просмотров

Искусственный интеллект может убить нас всех. Познакомьтесь с человеком, который серьезно относится к этому риску

Искусственный интеллект может убить нас всех. Познакомьтесь с человеком, который серьезно относится к этому риску

Мартин Брайант является основателем Big Revolution, где он помогает технологическим компаниям совершенствовать свои предложения и позиционирование, а также разрабатывает высококачественные (показать все) Мартин Брайант является основателем Big Revolution, где он помогает технологическим компаниям совершенствовать свои предложения и позиционирование, а также разрабатывает -качественный, убедительный контент для них. Ранее он занимал несколько должностей в TNW, в том числе главного редактора. Он покинул компанию в апреле 2016 года в пользу новых пастбищ.

Мысли о конце света — это то, чего большинство людей стараются избегать; для других это профессия. Институт будущего человечества при Оксфордском университете, Великобритания, специализируется на рассмотрении «общей картины» будущего человечества и, в частности, рисков, которые могут полностью нас уничтожить.

Как вы, наверное, догадались, в число рисков, рассматриваемых Институтом, входят такие вещи, как ядерная война и метеоритные удары, но одна, возможно, неожиданная область, которую он изучает, — это потенциальная угроза, исходящая от искусственного интеллекта. Могут ли компьютеры стать такими умными, чтобы стать нашими соперниками, отнять у нас все рабочие места и в конце концов уничтожить нас всех? Этот сценарий в стиле Терминатора раньше казался научной фантастикой, но его начинают воспринимать всерьез те, кто следит за развитием технологий.

Статья в тему:  Почему Илон Маск боится искусственного интеллекта

«Я думаю, что опубликовано больше академических статей о навозных жуках или «Звездном пути», чем о реальном экзистенциальном риске», — говорит Стюарт Армстронг, философ и научный сотрудник института, чья работа в последнее время сосредоточена на ИИ. «В мире очень мало каких-либо институтов, изучающих эти крупномасштабные риски… так мало исследований… по сравнению с другими, гораздо более мелкими рисками — безопасностью дорожного движения и тому подобными вещами».

ХАЛ 9000

Присоединяйтесь к TNW в Валенсии!

Сердце технологий приближается к сердцу Средиземноморья

«Одна из вещей, которая делает риск ИИ страшным, заключается в том, что это один из немногих, который действительно представляет собой риск исчезновения, если он пойдет плохо. Учитывая множество других рисков, на самом деле удивительно трудно достичь риска исчезновения», — объясняет Армстронг. «Возьмите, к примеру, ядерную войну, которая убьет лишь относительно небольшую часть планеты. Вы добавляете радиоактивные осадки, немного больше, добавляете ядерную зиму, вы, возможно, можете получить 90%, 95% — 99%, если вы действительно растянете это и возьмете экстремальные сценарии — но действительно трудно добраться до конца человеческой расы. То же самое касается пандемий, даже в их более опасных формах.

«Дело в том, что если ИИ выйдет из строя и 95% людей погибнет, то оставшиеся 5% вскоре исчезнут. Поэтому, несмотря на свою неопределенность, у него есть определенные черты очень серьезных рисков».

ИИ встречает человека в баре…

Итак, о какой угрозе здесь идет речь?

Статья в тему:  Какое будущее у искусственного интеллекта

«Прежде всего забудьте о Терминаторе, — говорит Армстронг. «Роботы — это, по сути, просто бронированные медведи, и у нас могут быть страхи из-за нашей эволюционной истории, но по-настоящему страшным был бы разум, который был бы на самом деле умнее нас — более социально приспособленным. Когда ИИ в форме робота может войти в бар и выйти со всеми мужчинами и/или женщинами на руках, вот тогда становится страшно. Когда они смогут стать лучше в политике, экономике, возможно, в технологических исследованиях».

Полномасштабная фигура робота-терминатора

Армстронг утверждает, что первое влияние этой технологии — почти полная безработица. «Вы можете взять ИИ, если бы он был с интеллектом человеческого уровня, скопировать его сто раз, обучить его сотне различных профессий, сто раз скопировать их, и у вас будет десять тысяч высокопоставленных сотрудников по сотне профессий, обученных может в течение недели. Или вы могли бы скопировать больше и иметь миллионы сотрудников… И если бы они были действительно сверхчеловеческими, вы бы получили производительность, превосходящую то, что я только что описал».

Зачем ИИ нас убивать?

Ладно, они заставляют отнимать у нас работу, но мысль о том, что какое-то высшее существо захочет нас убить, может показаться самонадеянной. Технический директор Google Рэй Курцвейл, например, с оптимизмом смотрит на то, как органические и кибернетические формы жизни будут все больше и больше переплетаться в более позитивном ключе — Скайнет не обязательно должен стать реальностью, а если и станет, то не станет. обязательно должны восстать против своих создателей. Армстронг считает, что мы должны осознавать риски и быть готовыми к ним.

Статья в тему:  Сколько Amazon платит инженеру по искусственному интеллекту

«Первая часть аргумента заключается в том, что они могут стать очень умными и, следовательно, очень могущественными. Вторая часть аргумента заключается в том, что чрезвычайно сложно разработать какую-то структуру мотивации или программу… которая приводит к безопасному результату для такого могущественного существа.

«Возьмите антивирусную программу, предназначенную для фильтрации вирусов из входящих электронных писем и стремящуюся к максимальному успеху, и хитрую, и вы сделаете ее сверхинтеллектуальной», — продолжает Армстонг. «Ну, он поймет, что, скажем, убийство всех — это решение его проблем, потому что, если он убьет всех и выключит все компьютеры, больше не будут отправляться электронные письма и, как побочный эффект, не будут отправляться вирусы.

«Это довольно глупый пример, но он иллюстрирует, что для столь многих желаний, мотивов или программ «убить всех людей» — это желаемый результат в их программе».

эй-девочка-хочу-убить-всех-людей

А нельзя ли запрограммировать средства защиты? Специальное правило «Не убивать людей»?

«Оказывается, это правило сложнее описать, чем мы предполагали изначально. Потому что, если вы на самом деле успешно запрограммируете его, скажем, нам действительно удастся определить, что такое человек, что такое жизнь и смерть и тому подобное, то теперь его целью будет погребение каждого человека под земной корой на глубине 10 км. в бетонных бункерах на питающих капельницах, потому что любое другое действие привело бы к менее идеальному результату.

Статья в тему:  Какую работу вы можете получить со степенью искусственного интеллекта

«Так что да, дело в том, что нам на самом деле нужно попытаться запрограммировать, по сути, что такое хорошая жизнь для людей или во что нельзя вмешиваться, а во что можно вмешиваться… и сделать это. в форме, которую можно закодировать или поместить в ИИ тем или иным методом».

Неопределенность — это не то же самое, что «безопасность»

Армстронг, безусловно, рисует ужасающую картину жизни в мире, где правит искусственный интеллект, но неизбежно ли это? Это неопределенно, говорит он, но нас это не должно слишком успокаивать.

«Повышение неопределенности — это плохой знак, а не хороший. Когда толпа противников глобального потепления упоминает «но в этих результатах есть неопределенности», это совершенно ужасает — люди понимают, что «возрастают неопределенности, поэтому мы в безопасности», но повышенные неопределенности почти всегда идут в обе стороны.

«Поэтому, если они говорят, что существует повышенная неопределенность, почти всегда увеличивается вероятность риска хвоста — действительно сильное изменение климата, и это пугает. Сказать «мы ничего не знаем об ИИ» совсем не то же самое, что сказать «мы знаем, что ИИ безопасен». Хотя мы мысленно запрограммированы так думать. ”

Когда мы сможем увидеть настоящий ИИ?

Что касается сроков, когда у нас может появиться сверхинтеллектуальный ИИ, Армстронг признает, что на этот вопрос сложно ответить.

«Правильный искусственный интеллект (типа, когда) «мы программируем его на компьютере, используя тот или иной метод»… неопределенности действительно высоки, и мы можем не иметь их в течение столетий, но есть другой подход, который используют люди, который использует весь мозг. эмуляции, некоторые люди называют их «загрузками», что заключается в копировании человеческого мозга и создании его экземпляров на компьютере. И временные рамки для этого кажутся намного более четкими, потому что, в отличие от ИИ, мы точно знаем, чего хотим достичь, и у нас есть четкие пути для достижения этого, и это кажется правдоподобным в масштабе столетия».

Статья в тему:  Как астероиды могут покинуть пояс?

Если компьютеры могут «лишь» думать так же, как люди, это может быть не так уж и плохо.

«(С) полной эмуляцией мозга… это был бы настоящий человеческий разум, поэтому нам не пришлось бы беспокоиться о том, что человеческий разум неправильно интерпретирует фразу «обеспечить безопасность людей» как нечто патологическое», — говорит Армстронг. «Мы просто должны были бы беспокоиться о том факте, что чрезвычайно могущественный человек — совершенно другая проблема, но это вызов, к которому мы больше привыкли — ограничение сильных людей — у нас есть множество методов для этого, которые могут или могут быть не работает, но это совершенно другая задача, чем иметь дело с совершенно чуждым разумом настоящего ИИ».

Давид из

Что касается тех настоящих ИИ, которые могут перехитрить любого человека, временные рамки гораздо более нечеткие.

«Вы можете подумать, что можете получить хорошую оценку, слушая предсказателей в области ИИ, может быть, Курцвейла, может быть, некоторых других, которые говорят что-то за или против ИИ. Но я посмотрел на это, и дело в том, что нет никаких оснований подозревать, что эти эксперты знают, о чем они говорят. ИИ никогда не существовало, у них никогда не будет обратной связи о том, насколько вероятно, что они существуют, у нас нет теории о том, что необходимо в каком-либо практическом смысле.

Статья в тему:  Как YouTube использует искусственный интеллект

«Если вы рисуете прогнозы, они просто как бы распространяются на грядущее столетие и следующее, по-видимому, на 20 лет между любыми двумя прогнозами и отсутствием реальной закономерности. Так что определенно есть веские доказательства того, что они не знают, когда произойдет ИИ и произойдет ли это.

«Однако такого рода неопределенность идет в обе стороны: аргументы в пользу того, что ИИ не появится, также довольно слабы, и аргументы в пользу того, что ИИ не появится в ближайшее время, также довольно слабы. Таким образом, точно так же, как вы можете подумать, что это может произойти через столетие, вы также должны думать, что это может произойти через пять лет.

«(Если) кто-то придумывает почти аккуратный алгоритм, снабжает его большим количеством данных, оказывается, что он может хорошо обобщать и… пуф – у вас очень быстро, хотя, вероятно, и у нас в ближайшее время не будет, в этом мы тоже не можем быть полностью уверены».

Философия техники

Во время разговора с Армстронгом мне стало очевидно, что нынешнее поколение философов, часто игнорируемое теми, кто не входит в круг академических кругов, должно сыграть свою роль в установлении руководящих принципов того, как мы взаимодействуем со все более «интеллектуальными» технологиями.

Армстронг сравнивает процесс своей работы с компьютерным программированием. «Мы пытаемся разбить все на максимально простые термины, как будто вы пытаетесь запрограммировать это в ИИ или в любой компьютер. Опыт программирования очень полезен. Но, к счастью, философы, и особенно философы-аналитики, уже некоторое время этим занимаются. Просто нужно немного расширить программу. Так что посмотрите, что у вас есть, и как вы это обосноваете, чтобы теории о том, как вы изучаете вещи, как вы что-то знаете о мире и как четко определять термины, становятся очень полезными».

Статья в тему:  Когда искусственный интеллект научится взламывать

валл-и

ИИ угрожает вашей работе

Самая большая проблема, с которой сталкивается Армстронг, — это простое неверие людей в то, что к угрозе массового вымирания из-за искусственного интеллекта стоит относиться серьезно.

«Люди очень плохо справляются с экстремальными рисками, — говорит он. «Люди в целом и лица, принимающие решения на всех уровнях, — мы просто не приспособлены к тому, чтобы справляться с важными и маловероятными вещами… У нас есть эвристика, у нас есть ментальные карты, в которых вымирание относится к особой категории — может быть». апокалипсисы и религии или сумасшедшие», или что-то в этом роде».

По крайней мере, Армстронг делает успехи, когда дело доходит до чего-то, что кажется немного более важным для нашей повседневной жизни в ближайшем будущем — угроза, которую ИИ представляет для нашей работы. «Это вполне респектабельно, это очень разумное опасение. Кажется, что вы можете привлечь внимание людей гораздо больше с помощью рисков среднего размера, чем с экстремальными рисками», — говорит он.

«(ИИ) может заменить практически любого, в том числе людей профессий, которые не привыкли к замене или передаче на аутсорсинг. Так что только за это стоит беспокоиться, даже если мы не смотрим на опасный эффект. Что опять же, лично я обнаружил, что если я говорю о том, что все теряют работу, это привлекает людей гораздо больше, чем если я начинаю говорить о вымирании человеческого вида. Первое как-то более «реально», чем второе».

Статья в тему:  Как глобальное потепление влияет на Нью-Мексико

Сборка автомобилей — область, в которой роботы давно заменили многие человеческие роли.

Я считаю уместным закончить нашу беседу собственным философским вопросом. Может ли работа Армстронга быть заменена искусственным интеллектом, или философия по своей сути является человеческим занятием?

«О, интересно… Нет причин, по которым философы были бы освобождены от этого, что философы могли бы быть ИИ намного лучше, чем люди, потому что философия — это человеческая профессия», — говорит он.

«Если бы ИИ хорошо думал, было бы лучше. Мы хотели бы сделать по крайней мере достаточно философии, чтобы мы могли включить хорошие части в ИИ, чтобы, когда он начал расширяться, он не расширял его в опасных или контрпродуктивных областях, но опять же, это было бы «нашим последним изобретением», так что мы хотели бы сделать это правильно.

«Это не означает, что в мире после ИИ не будет людей-философов, занимающихся человеческой философией, дело в том, что мы хотели бы, чтобы люди делали то, что они считали стоящим и полезным. Так что весьма правдоподобно, что в обществе после ИИ философы будут существовать так же, как и другие люди, выполняющие другую работу, которую они считают стоящей. Если вы хотите быть романтичным, возможно, фермеры традиционного типа.

«Я действительно не знаю, как можно было бы организовать общество, но вы должны были бы организовать его так, чтобы люди находили что-то полезное и продуктивное, что могло бы включать философию.

Статья в тему:  Какой состав для агентов в искусственном интеллекте

«С точки зрения «могут ли ИИ сделать это за пределами человеческого уровня», ну да, скорее всего, по крайней мере, так, чтобы мы не могли легко отличить людей-философов от ИИ».

Мы можем быть далеки от того, чтобы серия «Терминатор» стала документальным фильмом, но опять же, возможно, это не так. Автономные роботы, способные убивать, уже серьезно воспринимаются как угроза на полях сражений ближайшего будущего.

Неопределенность вокруг ИИ — вот почему мы не должны игнорировать предупреждения таких людей, как Стюарт Армстронг. Когда машины поднимутся, мы должны быть к ним готовы.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Статьи c упоминанием слов:

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x