2 просмотров

Последнее предупреждение Стивена Хокинга человечеству: ИИ придет за нами

Его посмертно изданная книга о нашем будущем полна страха и удивительного оптимизма.

Эбигейл Хиггинс @abbyhiggins, 16 октября 2018 г., 15:00 по восточному поясному времени

Поделитесь этой историей

  • Поделитесь этим на Facebook
  • Поделитесь этим в Твиттере

Делиться Все варианты обмена для: Последнее предупреждение Стивена Хокинга человечеству: ИИ идет за нами

Объявление о новой инициативе по исследованию космоса «Прорыв Starshot»

Этот рассказ входит в группу рассказов под названием Будущее совершенное время

Поиск лучших способов делать добро.

У Стивена Хокинга есть последнее послание человечеству: если роботы нас не поймают, это сделает климат.

Хокинг, который умер в возрасте 76 лет от дегенеративного неврологического заболевания в начале этого года, предлагает свои прощальные мысли в посмертно опубликованной книге под названием Краткие ответы на важные вопросы, который выходит во вторник.Это сообщение человека, который, вероятно, является самым известным ученым со времен Эйнштейна, наиболее известным своим открытием того, как функционируют черные дыры. книга Хокинга Краткая история времени было продано более 10 миллионов копий, а ответы на такие важные вопросы, как «Как началась Вселенная?» и «Что будет, когда это закончится?» языком, достаточно простым для среднего читателя.

В выдержке, опубликованной в лондонской Times в минувшие выходные, он весел и оптимистичен, хотя и предупреждает нас, что искусственный интеллект, скорее всего, перехитрит нас, что богатые неизбежно превратятся в сверхчеловеческий вид и что планета мчится. к полной обитаемости.

Статья в тему:  Какие проблемы с искусственным интеллектом

Книга Хокинга — это, в конечном счете, приговор будущему человечества. На первый взгляд, вердикт таков, что мы обречены. Но копните глубже, и здесь есть еще кое-что: вера в то, что человеческая мудрость и новаторство предотвратят наше собственное разрушение, даже если мы, кажется, одержимы его осуществлением.

Роботы могут прийти за нами

Самое большое предупреждение Хокинга касается появления искусственного интеллекта: либо это будет лучшее, что с нами когда-либо случалось, либо худшее. Если мы не будем осторожны, это вполне может оказаться последним.

Искусственный интеллект открывает перед человечеством большие возможности, охватывая все: от алгоритмов Google до беспилотных автомобилей и программного обеспечения для распознавания лиц. Однако ИИ, который у нас есть сегодня, все еще находится на начальной стадии. Эксперты беспокоятся о том, что произойдет, когда этот интеллект опередит нас. Или, как выразился Хокинг: «В то время как краткосрочное влияние ИИ зависит от того, кто его контролирует, долгосрочное воздействие зависит от того, можно ли его вообще контролировать».

Это может звучать как научная фантастика, но Хокинг говорит, что отвергнуть это как таковое «было бы ошибкой и, возможно, нашей самой большой ошибкой».

По сравнению с роботами мы, люди, довольно неуклюжи. Ограниченные медленным темпом эволюции, нам требуются поколения для итерации.Роботы, с другой стороны, могут намного быстрее улучшать свой собственный дизайн, и вскоре они, вероятно, смогут делать это без нашей помощи. Хокинг говорит, что это приведет к «интеллектуальному взрыву», в котором машины смогут превзойти наш интеллект «намного больше, чем наш превосходит интеллект улиток».

Статья в тему:  Что искусственный интеллект может сделать лучше, чем люди

Многие люди думают, что угроза ИИ заключается в том, что он становится злонамеренным, а не доброжелательным. Хокинг избавляет нас от этой озабоченности, говоря, что «реальный риск с ИИ — не злой умысел, а компетентность». По сути, ИИ будет очень хорош в достижении своих целей; если люди встанут на пути, у нас могут быть проблемы.

«Возможно, вы не злобный муравьененавистник, который наступает на муравьев из злого умысла, но если вы отвечаете за проект гидроэлектростанции с экологически чистой энергией, а в регионе есть муравейник, который нужно затопить, очень плохо для муравьев. Давайте не будем ставить человечество на место этих муравьев», — пишет Хокинг.

Для тех, кто еще не убежден, он предлагает другую метафору. «Почему мы так беспокоимся об ИИ? Конечно, люди всегда могут выдернуть вилку из розетки?» — спрашивает его гипотетический человек.

Хокинг отвечает: «Люди спрашивали у компьютера: «Есть ли Бог?» И компьютер отвечал: «Сейчас есть», и переваривал вилку».

Конец жизни на земле?

Если дело не в роботах, то «почти неизбежно, что либо ядерная конфронтация, либо экологическая катастрофа нанесут вред Земле в какой-то момент в ближайшие 1000 лет», — пишет Хокинг.

Его предупреждение последовало за тревожными событиями на прошлой неделе. межправительственная комиссия по изменению климата (МГЭИК) предупреждает, что у нас есть только 12 лет, чтобы внести достаточно масштабные изменения, чтобы удержать глобальное потепление на умеренном уровне. Без таких изменений длительные засухи, более частые тропические штормы и повышение уровня моря будут только началом.

Статья в тему:  Сколько стоит стартап искусственного интеллекта?

По его словам, безудержное изменение климата представляет собой самую большую угрозу для нашей планеты, и мы действуем с «безрассудным безразличием к нашему будущему на планете Земля».

На самом деле у нас может вообще не быть будущего, говорит он, предупреждая нас не класть все яйца «в одну корзину». И да, эта корзина — планета Земля. По его словам, даже если люди найдут способ спастись, «миллионы видов, населяющих Землю», будут обречены. «И это будет на нашей совести как расы».

Другое предупреждение не менее угрожающее. Мы вступаем в новую фазу «самосозданной эволюции». Этот этап означает, что вскоре мы сможем сбросить цепи традиционной эволюции и начать изменять и улучшать нашу собственную ДНК сейчас, а не через сотни тысяч лет.

Как и в случае с ИИ, способность редактировать нашу собственную ДНК может решить самые большие проблемы человечества. Во-первых, и, вероятно, не в отдаленном будущем, мы сможем исправлять генетические дефекты, редактируя гены таких вещей, как мышечная дистрофия и боковой амиотрофический склероз, или БАС, болезнь, которую ему поставили в 1963 году. Хокинг говорит, что в рамках этого века, мы сможем редактировать интеллект, память и продолжительность жизни. И вот тогда все может стать по-настоящему сложным.

Хокинг называет людей, которые будут это делать, «сверхчеловеками», и они, вероятно, будут состоятельной мировой элитой. Обычные старые люди не смогут конкурировать и, вероятно, «вымрут или станут неважными». В то же время сверхлюди, вероятно, будут «колонизировать другие планеты и звезды».

Статья в тему:  Что такое пространство поиска в искусственном интеллекте

Если все это звучит довольно удручающе, так оно и есть. Но даже несмотря на то, что Хокинг выдвигает апокалиптический прогноз для планеты и всех ее обитателей, его оптимизм все же проявляется. Он верит, что «наша изобретательная раса найдет способ вырваться из угрюмых оков Земли и, следовательно, переживет катастрофу».

Он даже считает, что эти возможности не пугают, а волнуют и что они «значительно увеличивают шансы вдохновить нового Эйнштейна. Где бы она ни была».

Выяснение того, как покинуть планету Земля и, возможно, даже Солнечную систему, — это возможность сделать то, что сделали высадки на Луну: «поднять человечество, объединить людей и нации, открыть новые открытия и новые технологии».

Подпишитесь на рассылку Future Perfect. Дважды в неделю вы будете получать сводку идей и решений для решения наших самых больших проблем: улучшения общественного здравоохранения, уменьшения страданий людей и животных, снижения рисков катастроф и, проще говоря, улучшения в добрых делах.

Понимание политической сферы Америки может быть ошеломляющим. Вот где Vox приходит на помощь. Мы стремимся предоставить основанную на исследованиях, интеллектуальную и доступную информацию всем, кто в ней нуждается.

Подарки читателей поддерживают эту миссию, помогая сохранить нашу работу свободной — независимо от того, добавляем ли мы нюансы контекста к неожиданным событиям или объясняем, как наша демократия дошла до этого. Несмотря на то, что мы стремимся сохранить Vox бесплатным, наш отличительный стиль объяснительной журналистики требует много ресурсов. Одной рекламы недостаточно для ее поддержки. Помогите сделать такую ​​работу бесплатной для всех, сделав подарок компании Vox сегодня.

голоса
Рейтинг статьи
Статья в тему:  Какой лучший курс по искусственному интеллекту?
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x