0 просмотров

5 очень умных людей, которые думают, что искусственный интеллект может принести Апокалипсис

Физик-теоретик Стивен Хокинг позирует фотографу перед гала-показом документального фильма «Хокинг», рассказывающего о жизни ученого. (AFP/Getty Images)

Физик-теоретик Стивен Хокинг позирует фотографу перед гала-показом документального фильма «Хокинг», рассказывающего о жизни ученого.

AFP/Getty Images
2 декабря 2014 г., 15:03 по восточному поясному времени

В списке сценариев конца света, которые могут уничтожить человеческую расу, сверхумные роботы-убийцы занимают довольно высокое место в общественном сознании. А в научных кругах все большее число экспертов по искусственному интеллекту соглашаются с тем, что люди в конечном итоге создадут искусственный интеллект, способный мыслить за пределами наших собственных способностей.Этот момент, называемый сингулярностью, может создать утопию, в которой роботы автоматизируют обычные формы труда, а люди отдыхают среди изобилия ресурсов. Или это может привести к тому, что искусственный интеллект, или ИИ, истребит любых существ, которых он считает конкурентами за контроль над Землей — это будут мы. Стивен Хокинг долгое время считал последнее более вероятным, и он снова высказал свои мысли в недавнем интервью Би-би-си. Вот несколько комментариев Хокинга и других очень умных людей, которые согласны с тем, что да, ИИ может стать причиной падения человечества.

Стивен Хокинг

«Развитие полноценного искусственного интеллекта может означать конец человеческой расы», — сказал всемирно известный физик Би-би-си. «Он взлетит сам по себе и будет переделывать себя со все возрастающей скоростью. Люди, которые ограничены медленной биологической эволюцией, не могут конкурировать и будут вытеснены». Хокинг уже давно озвучивает это апокалиптическое видение. В майской колонке в ответ на Превосходство, научно-фантастическом фильме о сингулярности с Джонни Деппом в главной роли, Хокинг раскритиковал исследователей за то, что они не делают больше для защиты людей от рисков, связанных с ИИ. «Если бы высшая инопланетная цивилизация отправила нам сообщение, в котором говорилось: «Мы прибудем через несколько десятилетий», мы бы просто ответили: «Хорошо, позвоните нам, когда доберетесь сюда — мы оставим свет включенным»? Вероятно, нет, но это более или менее то, что происходит с ИИ», — написал он.

Статья в тему:  Когда появился искусственный интеллект

Илон Маск

Известный своими предприятиями на переднем крае технологий, такими как Tesla и SpaceX, Маск не является поклонником ИИ. На конференции в Массачусетском технологическом институте в октябре Маск сравнил совершенствование искусственного интеллекта с «вызовом демона» и назвал это самой большой экзистенциальной угрозой человечества. Он также написал в Твиттере, что ИИ может быть более опасным, чем ядерное оружие. Маск призвал к установлению национальных или международных правил разработки ИИ.

Ник Бостром

Шведский философ является директором Института будущего человечества в Оксфордском университете, где он провел много времени, размышляя о возможных последствиях сингулярности. В своей новой книге Сверхразум, Бостром утверждает, что как только машины превзойдут человеческий интеллект, они смогут мобилизоваться и решить очень быстро уничтожить людей, используя любое количество стратегий (развертывание невидимых патогенов, вербовка людей на свою сторону или простая грубая сила). Мир будущего станет еще более технологически продвинутым и сложным, но нас не будет рядом, чтобы увидеть его. «Общество экономических чудес и технологического совершенства, в котором никто не может извлечь выгоду», — пишет он. «Диснейленд без детей».

Джеймс Баррат

Баррат — писатель и документалист, который взял интервью у многих исследователей ИИ и философов для своей новой книги «Наше последнее изобретение: искусственный интеллект и конец человеческой эры». Он утверждает, что разумные существа врожденно стремятся к сбору ресурсов и достижению целей, что неизбежно поставит супер-умный ИИ в конкуренцию с людьми, величайшими пожирателями ресурсов, которых когда-либо знала Земля. Это означает, что даже машина, которая должна была просто играть в шахматы или выполнять другие простые функции, могла бы получить другие идеи, если бы была достаточно умной. «Без дотошных, противодействующих инструкций самоосознающая, самосовершенствующаяся, целеустремленная система пойдет на то, что мы сочли бы нелепым, чтобы достичь своих целей», — пишет он в книге.

Статья в тему:  Почему искусственный интеллект не используется в освоении космоса

Вернор Виндж

Считается, что математик и писатель-фантаст Виндж ввел термин «сингулярность» для описания переломного момента, когда машины перехитрили людей. Он рассматривает сингулярность как неизбежность, даже если появятся международные правила, контролирующие развитие ИИ.«Конкурентное преимущество — экономическое, военное, даже художественное — каждого достижения в области автоматизации настолько убедительно, что принятие законов или наличие обычаев, запрещающих такие вещи, просто гарантирует, что кто-то другой получит их первым», — писал он в эссе 1993 года. А что происходит, когда мы попадаем в сингулярность? «Физическое вымирание человечества — одна из возможностей», — пишет он.

Еще больше обязательных к прочтению материалов от TIME

  • 100 лучших фотографий 2022 года по версии TIME
  • У меня положительный результат на COVID-19 прямо перед праздниками. Что я должен делать?
  • Столбец: Как создать ощущение принадлежности к разделенной Америке
  • Как пережить праздники, если ты Скрудж
  • Ожидаемая продолжительность жизни свидетельствует о Как далеко зашли чернокожие американцы
  • 10 лучших альбомов 2022 года
  • Иран Долгая история протеста и активизма
  • 6 способов сделать лучший подарок — Основано на науке

Свяжитесь с нами на письма@time.com.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector