0 просмотров

Отделение научных фактов от научной шумихи: насколько далеко сингулярность?

Большинство экспертов уверены, что это произойдет раньше, чем позже.

1. 30. 18 Дом Галеон

CBlue98/Flickr

Изображение CBlue98/Flickr

Если/когда машины возьмут верх

Термин «искусственный интеллект» был придуман всего около 60 лет назад, но сегодня у нас нет недостатка в экспертах, размышляющих о будущем ИИ. Главной из рассматриваемых тем является технологическая сингулярность, момент, когда машины достигают уровня интеллекта, превосходящего человеческий.

Хотя в настоящее время сингулярность ограничивается научной фантастикой, она больше не кажется чем-то невероятным. От крупных технологических компаний, таких как Google и IBM, до десятков небольших стартапов, некоторые из самых умных людей в мире посвятили себя развитию областей искусственного интеллекта и робототехники. Теперь у нас есть человекоподобные роботы, которые могут поддерживать разговор, читать эмоции — или, по крайней мере, пытаться — и выполнять ту или иную работу.

На первом месте среди ведущих экспертов, уверенных в том, что сингулярность — это неизбежность ближайшего будущего, стоит Рэй Курцвейл, технический директор Google. Высокоуважаемый футуролог и «предсказатель будущего» предсказывает, что мы достигнем этого где-то до 2045 года.

Между тем, генеральный директор SoftBank Масаёси Сон, сам довольно известный футуролог, убежден, что сингулярность произойдет в этом столетии, возможно, уже в 2047 году. Можно с уверенностью сказать, что ни один другой человек так не стремится ускорить процесс.

Статья в тему:  Почему стоит бояться искусственного интеллекта

Однако не все с нетерпением ждут сингулярности. Некоторые эксперты обеспокоены тем, что сверхразумные машины могут положить конец человечеству в том виде, в каком мы его знаем.Эти предупреждения исходят от физика Стивена Хокинга и генерального директора и основателя Tesla Илона Маска, который, как известно, подвергся резкой критике за свое отношение «конца света» к ИИ и сингулярности.

Ясно, что тема довольно спорная, поэтому Футуризм решил собрать мысли других экспертов в надежде отделить научную фантастику от реальных разработок в области ИИ. Вот как, по их мнению, мы близки к достижению сингулярности.

Моя точка зрения, как я описал в своем выступлении на TED этим летом, состоит в том, что искусственный интеллект станет самоосознающим и превзойдет человеческие способности, что многие люди называют сингулярностью. Почему я так уверен, что это произойдет? Простой. Мать-природа уже доказала, что разумный интеллект можно создать, задействовав огромное количество простых процессорных единиц (т. е. нейронов) для формирования адаптивных сетей (т. е. мозга).

Еще в начале 1990-х, когда я начал думать об этой проблеме, я считал, что ИИ превзойдет человеческие способности где-то к 2050 году. В настоящее время я считаю, что это произойдет раньше, возможно, уже в 2030 году. Меня это очень удивляет, поскольку эти типы прогнозов обычно ускользают в будущее, когда в фокусе становятся ограничения технологий, но этот кричит нам быстрее, чем когда-либо.

Для меня перспектива создания разумного искусственного интеллекта на Земле не менее опасна, чем появление инопланетного разума с другой планеты. В конце концов, у него будут свои ценности, своя мораль, свои чувства и, самое главное, свои интересы.

Предполагать, что его интересы будут совпадать с нашими, абсурдно наивно, а предполагать, что он не будет ставить свои интересы на первое место, ставя под угрозу само наше существование, — значит игнорировать то, что мы, люди, сделали с каждым другим существом на Земле.

Таким образом, мы должны готовиться к неизбежному прибытию разумного ИИ с таким же уровнем осторожности, как и к неизбежному прибытию космического корабля из другой солнечной системы.Мы должны предположить, что это экзистенциальная угроза для нашего вида.

Что мы можем сделать? Лично я скептически отношусь к тому, что мы сможем остановить появление разумного ИИ. Мы, люди, просто не в состоянии сдерживать опасные технологии. Дело не в том, что у нас нет добрых намерений; дело в том, что мы редко оцениваем опасность наших творений, пока они не проявляют себя открыто, и в этот момент уже слишком поздно.

Значит ли это, что мы обречены? Долгое время я думал, что да, — на самом деле, я написал два научно-фантастических графических романа о нашей неизбежной кончине, — но теперь я верю, что человечество может выжить, если мы станем умнее, намного умнее и быстрее. опередить машины.

Пьер Барро, генеральный директор Aiva Technologies:

Я думаю, что самым большим недоразумением, когда речь заходит о том, как скоро ИИ достигнет уровня «сверхразума», является предположение, что экспоненциальный рост производительности следует воспринимать как должное.

Во-первых, на аппаратном уровне мы достигаем потолка закона Мура, поскольку транзисторы не могут стать меньше. В то же время нам еще предстоит доказать на практике, что новые вычислительные архитектуры, такие как квантовые вычисления, могут быть использованы для продолжения роста вычислительной мощности с той же скоростью, что и раньше.

Во-вторых, на уровне программного обеспечения нам еще предстоит пройти долгий путь. Большинству наиболее эффективных алгоритмов ИИ требуются тысячи, если не миллионы, примеров для успешного обучения. Мы, люди, способны намного эффективнее осваивать новые задачи, видя лишь несколько примеров.

Применение ИИ [и] глубокого обучения в настоящее время очень узкое. Системы искусственного интеллекта сосредоточены на решении очень специфических задач, таких как распознавание изображений кошек и собак, вождение автомобиля или сочинение музыки, но нам пока не удалось научить систему выполнять все эти задачи одновременно так, как это может делать человек. .

Это не значит, что мы не должны с оптимизмом смотреть на прогресс ИИ.Однако я считаю, что если вокруг темы слишком много шумихи, вполне вероятно, что наступит момент, когда мы разочаруемся в обещаниях того, что может сделать ИИ.

Если это произойдет, то может наступить еще одна зима ИИ, что приведет к сокращению финансирования искусственного интеллекта. Это, вероятно, худшее, что может случиться с исследованиями ИИ, поскольку это может помешать дальнейшим достижениям в этой области раньше, чем позже.

Итак, когда же произойдет сингулярность? Я думаю, это зависит от того, что мы подразумеваем под этим. Если мы говорим об ИИ, прошедшем тест Тьюринга и кажущемся таким же умным, как люди, я полагаю, что это то, что мы увидим к 2050 году. Это не означает, что ИИ обязательно будет умнее нас.

Если мы говорим об ИИ, действительно превосходящих людей в какой-либо задаче, то я думаю, что нам все же нужно понять, как работает наш собственный интеллект, прежде чем мы сможем утверждать, что мы создали искусственный интеллект, который превосходит наш. Человеческий мозг все еще бесконечно сложнее для понимания, чем самая сложная глубокая нейронная сеть.

Раджа Чатила, председатель Глобальной инициативы IEEE по этическим соображениям в области ИИ и автономных систем и директор Института интеллектуальных систем и робототехники (ISIR) Университета Пьера и Марии Кюри:

Концепция технологической сингулярности не основана ни на каком научном или технологическом факте.

Основным аргументом является так называемый «закон ускоряющейся отдачи», выдвинутый несколькими пророками сингулярности, в основном Рэем Курцвейлом. Этот закон вдохновлен законом Мура, который, как вы знаете, не является научным законом — он является результатом того, как промышленность, производящая процессоры и чипы, поставляет более миниатюрные и интегрированные процессоры за счет уменьшения размера транзистора, тем самым умножая вычислительную мощность на в два раза примерно каждые два года, а также увеличение объема памяти.

Всем известно, что у закона Мура есть ограничения — например, когда мы достигнем квантового масштаба — и что существуют архитектуры, которые могут изменить эту перспективу (квантовые вычисления, интеграция различных функций: «больше, чем Мура» и т. д.). Важно помнить, что закон Мура не является строгим законом.

Однако сторонники сингулярности обобщают ее на эволюцию видов и технологий в целом без каких-либо строгих оснований. Исходя из этого, они прогнозируют, что наступит момент, когда растущая мощность компьютеров предоставит им возможности искусственного интеллекта, превосходящие весь человеческий интеллект. В настоящее время сторонники сингулярности предсказывают, что это произойдет примерно с 2040 по 2045 год.

Но простая вычислительная мощность не является интеллектом. В нашем мозгу около 100 миллиардов нейронов. Именно их организация и взаимодействие заставляют нас думать и действовать.

В настоящее время все, что мы можем сделать, это запрограммировать явные алгоритмы для эффективного выполнения некоторых вычислений (называя это интеллектом), будь то путем специального определения этих вычислений или с помощью хорошо спроектированных процессов обучения, которые остаются ограниченными тем, для чего они были разработаны. учиться.

В заключение, сингулярность — это вопрос веры, а не науки.

Гидеон Шмуэль, генеральный директор компании eyeSight Technologies:

Выяснение того, как заставить машины учиться самостоятельно, может занять час в какой-нибудь маленькой лаборатории, а может занять пять лет в результате сосредоточенных усилий одного из гигантов, таких как Amazon или Google. Проблема в том, что как только мы совершим этот скачок и машины действительно научаться сами по себе, они смогут делать это с экспоненциальной скоростью, превосходя нас в течение нескольких часов или даже минут.

Хотел бы я сказать вам, что, как и все другие технологические достижения, технологии ни хороши, ни плохи — это просто инструмент. Хотел бы я сказать вам, что инструмент так же хорош или так же плох, как и его пользователь. Однако все это больше не будет применяться.Эта сингулярность касается не пользователей-людей, а машин. Это будет полностью не в нашей власти, и единственное, что можно сказать наверняка, это то, что мы не можем предсказать последствия.

Множество научно-фантастических книг и фильмов поднимают понятие сверхразума, выясняя, что лучший способ спасти человечество — это уничтожить его, или запереть всех, или какой-то другой результат, который мы с вами не оценим.

Существует основное различие второго порядка, которое стоит провести между технологиями ИИ. Если вы возьмете опыт работы компании eyeSight — встроенное компьютерное зрение — риск будет довольно низким. То, что машина или компьютер самостоятельно изучает значение предметов и контекстов, которые они могут видеть (распознают человека, стул, бренд, конкретное действие, выполняемое людьми, или взаимодействие и т. д.), не имеет ничего общего с действием. такая машина может принять относительно этого входа.

В наших интересах иметь машины, которые могут научиться понимать, что происходит, и придавать правильное значение происходящему. Риск связан с мозгом ИИ, который отвечает за прием сенсорной информации и преобразование ее в действие.

Действия могут быть очень рискованными как в физической сфере, через двигатели (автомобили, ворота, краны, трубопроводные клапаны, роботы и т. д.), так и в киберпространстве (возникновение информационных потоков, доступ к информации, контроль над ресурсами, личности, различные разрешения и др.).

Стоит ли бояться последнего? Лично меня трясет.

Патрик Уинстон, профессор искусственного интеллекта и компьютерных наук, Лаборатория компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL):

Недавно мне задали вариант по этому вопросу. На протяжении последних 50 лет люди говорили, что через 20 лет у нас будет интеллект человеческого уровня. Мой ответ: меня все устраивает. Это будет правдой в конце концов.

Мой менее легкомысленный ответ заключается в том, что, что интересно, [Алан] Тьюринг затронул эту тему в своей оригинальной контрольной работе Тьюринга, используя аналогию с ядерной реакцией.С тех пор другие думали, что они изобрели идею сингулярности, но это действительно очевидный вопрос, который задаст любой, кто серьезно думал об ИИ.

Мой личный ответ заключается в том, что это не то же самое, что отправить человека на Луну, что мы знали, что можем сделать, когда начиналась космическая программа. То есть никаких прорывных идей не понадобилось. Что касается технологической сингулярности, для этого требуется один или несколько прорывов, и о них трудно/невозможно думать с точки зрения временных рамок.

Конечно, отчасти это зависит от того, сколько людей было привлечено к размышлениям об этих трудных проблемах. Теперь у нас есть огромное количество людей, которые изучают и работают над машинным и глубоким обучением. Какая-то крошечная часть из них может быть привлечена к размышлениям о понимании природы человеческого интеллекта, и эта крошечная часть составляет гораздо большее число, чем думали о человеческом интеллекте десять лет назад.

Итак, когда у нас будет момент Уотсона/Крика? Загнанный в угол, с ножом у горла, я бы сказал, 20 лет, и я говорю, что полностью уверен, что в конце концов это будет правдой.

голоса
Рейтинг статьи
Статья в тему:  Что такое искусственный интеллект и машинное обучение в облаке
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector