4 просмотров

Искусственный интеллект на самом деле не так уж и умен

Искусственный интеллект на самом деле не так уж и умен

От беспилотных автомобилей до танцующих роботов в рекламе Суперкубка искусственный интеллект (ИИ) присутствует повсюду. Однако проблема со всеми этими примерами ИИ заключается в том, что они на самом деле не умный. Скорее, они представляют собой узкий ИИ — приложение, способное решить конкретную задачу с помощью методов искусственного интеллекта. И это сильно отличается от того, чем обладаем мы с вами.

Люди (надеюсь) демонстрируют общий интеллект. Мы умеем решать широкий круг задач и учимся решать те проблемы, с которыми раньше не сталкивались. Мы способны учиться новым ситуациям и новым вещам. Мы понимаем, что физические объекты существуют в трехмерной среде и подвержены различным физическим свойствам, включая течение времени. Способность искусственно воспроизвести мыслительные способности человеческого уровня или искусственный общий интеллект (AGI) просто не существует в том, что мы сегодня называем ИИ.

[ Также на InfoWorld: Глубокое обучение против машинного обучения: понимание различий ]

Это не умаляет того ошеломляющего успеха, которым ИИ пользуется на сегодняшний день. Google Search — выдающийся пример искусственного интеллекта, которым регулярно пользуется большинство людей. Google способен искать объемы информации с невероятной скоростью, чтобы предоставить (обычно) результаты, которые хочет пользователь, в верхней части списка.

Точно так же голосовой поиск Google позволяет пользователям произносить поисковые запросы. Пользователи могут сказать что-то, что звучит двусмысленно, и получить результат, который правильно написан, написан с заглавной буквы, пунктуирован и, в довершение всего, обычно то, что имел в виду пользователь.

Статья в тему:  Как очистить воду после ядерной атаки

Как это работает так хорошо? У Google есть исторические данные о триллионах поисковых запросов и о том, какие результаты выбрал пользователь.Исходя из этого, он может предсказать, какие поиски вероятны и какие результаты сделают систему полезной. Но никто не ожидает, что система понимает, что она делает или какой-либо из результатов, которые она представляет.

Это подчеркивает потребность в огромном количестве исторических данных. Это очень хорошо работает в поиске, потому что каждое взаимодействие с пользователем может создать элемент данных обучающего набора. Но если тренировочные данные необходимо пометить вручную, это трудная задача. Кроме того, любое смещение в тренировочном наборе будет напрямую влиять на результат. Если, например, система разработана для прогнозирования преступного поведения и обучена с использованием исторических данных, включающих расовые предубеждения, итоговое приложение также будет иметь расовые предубеждения.

Персональные помощники, такие как Alexa или Siri, следуют сценариям с многочисленными переменными и поэтому могут создавать впечатление более способных, чем они есть на самом деле. Но, как известно всем пользователям, все, что вы скажете, чего нет в сценарии, приведет к непредсказуемым результатам.

В качестве простого примера вы можете спросить личного помощника: «Кто такой Купер Купп?» Фраза «Кто есть» запускает веб-поиск по переменной оставшейся части фразы и, скорее всего, даст релевантный результат. Благодаря множеству различных триггеров и переменных сценария система создает видимость некоторой степени интеллекта, хотя на самом деле выполняет манипуляции с символами. Из-за отсутствия основного понимания только 5% людей говорят, что никогда не разочаровываются, используя голосовой поиск.

Масштабная программа, такая как GPT3 или Watson, обладает такими впечатляющими возможностями, что концепция сценария с переменными совершенно невидима, что позволяет создать видимость понимания. Тем не менее, их программы все еще смотрят на ввод и выдают определенные выходные ответы. Наборы данных, лежащие в основе ответов ИИ («сценарии»), теперь настолько велики и изменчивы, что часто трудно заметить лежащий в их основе сценарий — до тех пор, пока пользователь не отключится от сценария.Как и в случае со всеми другими приведенными примерами ИИ, ввод их вне сценария приведет к непредсказуемым результатам. В случае GPT-3 обучающая выборка настолько велика, что устранение смещения до сих пор оказалось невозможным.

Статья в тему:  С чего начать изучение искусственного интеллекта

Нижняя линия? Фундаментальным недостатком того, что мы сегодня называем ИИ, является отсутствие у него понимания здравого смысла. Во многом это связано с тремя историческими предположениями:

  • Основное предположение, лежащее в основе большинства разработок ИИ за последние 50 лет, заключалось в том, что простые проблемы с интеллектом встанут на свои места, если мы сможем решить сложные. К сожалению, это оказалось ложным предположением. Лучше всего это можно выразить как парадокс Моравека. В 1988 году Ганс Моравек, выдающийся робототехник из Университета Карнеги-Меллона, заявил, что сравнительно легко заставить компьютеры демонстрировать производительность на уровне взрослых в тестах на интеллект или при игре в шашки, но трудно или невозможно научить их навыкам годовалого обучения. -старый, когда дело доходит до восприятия и подвижности. Другими словами, часто сложные проблемы оказываются более простыми, а кажущиеся простыми проблемы оказываются непомерно сложными.
  • Следующее предположение состоит в том, что если вы создадите достаточно узких приложений ИИ, они вместе вырастут в общий интеллект. Это также оказалось ложным. Узкие приложения ИИ не хранят свою информацию в обобщенной форме, поэтому другие узкие приложения ИИ могут использовать ее для расширения охвата. Приложения для обработки речи и приложения для обработки изображений могут быть сшиты вместе, но их нельзя интегрировать так, как ребенок легко интегрирует зрение и слух.
  • Наконец, было общее мнение, что если бы мы могли просто построить достаточно большую систему машинного обучения с достаточной вычислительной мощностью, она бы спонтанно продемонстрировала общий интеллект. Это восходит к временам экспертных систем, которые пытались зафиксировать знания в определенной области.Эти усилия ясно продемонстрировали, что невозможно создать достаточно случаев и примеров данных, чтобы преодолеть лежащее в основе непонимание. Системы, которые просто манипулируют символами, могут создавать видимость понимания до тех пор, пока некий «нестандартный» запрос не выявит ограничение.
Статья в тему:  Как линейная алгебра используется в искусственном интеллекте

Почему эти проблемы не являются главным приоритетом индустрии ИИ? Короче, следи за деньгами.

Рассмотрим, например, подход к развитию способностей, таких как складывание кубиков, для трехлетнего ребенка. Конечно, вполне возможно разработать ИИ-приложение, которое научилось бы складывать блоки так же, как этот трехлетний ребенок. Однако вряд ли он получит финансирование. Почему? Во-первых, кому захочется вкладывать миллионы долларов и годы разработки в приложение, выполняющее единственную функцию, которую может сделать любой трехлетний ребенок, но ничего более общего?

Однако большая проблема заключается в том, что даже если бы кто-то финансировал такой проект, ИИ не демонстрирует настоящего интеллекта. У него нет ситуационной осведомленности или контекстуального понимания. Более того, ему не хватает того, что может сделать каждый трехлетний ребенок: стать четырехлетним, затем пятилетним, а затем десятилетним и пятнадцатилетним. Врожденные способности трехлетнего ребенка включают в себя способность вырасти до полноценного, в целом умного взрослого человека.

[ Будьте в курсе последних разработок в области анализа данных и машинного обучения. Подпишитесь на информационный бюллетень InfoWorld First Look ]

Вот почему термин «искусственный интеллект» не работает. Здесь просто не так много интеллекта. Большая часть того, что мы называем ИИ, основана на одном алгоритме — обратном распространении. Это называется глубоким обучением, машинным обучением, искусственными нейронными сетями и даже импульсными нейронными сетями. И это часто представляется как «работает как ваш мозг». Если вместо этого вы будете думать об ИИ как о мощном статистическом методе, вы будете ближе к цели.

Статья в тему:  Что происходит в фильме об искусственном интеллекте

Чарльз Саймон, BSEE, MSCS, является признанным на национальном уровне предпринимателем и разработчиком программного обеспечения, а также генеральным директором FutureAI. Саймон — автор книги «Будут ли компьютеры восставать?»: Подготовка к будущему искусственного интеллекта и разработчик Brain Simulator II, исследовательской программной платформы AGI. Для получения дополнительной информации посетите https://futureai.guru/Основатель.aspx.

New Tech Forum представляет собой площадку для изучения и обсуждения новых корпоративных технологий с беспрецедентной глубиной и широтой. Выбор субъективен и основан на выборе технологий, которые мы считаем важными и представляющими наибольший интерес для читателей InfoWorld. InfoWorld не принимает маркетинговые материалы для публикации и оставляет за собой право редактировать весь предоставленный контент. Присылайте все запросы на newtechforum@infoworld.com.

  • Искусственный интеллект
  • Машинное обучение
  • Разработка программного обеспечения
  • Аналитика

© 2022 IDG Communications, Inc.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Статьи c упоминанием слов:

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x