Искусственный интеллект на самом деле не так уж и умен
От беспилотных автомобилей до танцующих роботов в рекламе Суперкубка искусственный интеллект (ИИ) присутствует повсюду. Однако проблема со всеми этими примерами ИИ заключается в том, что они на самом деле не умный. Скорее, они представляют собой узкий ИИ — приложение, способное решить конкретную задачу с помощью методов искусственного интеллекта. И это сильно отличается от того, чем обладаем мы с вами.
Люди (надеюсь) демонстрируют общий интеллект. Мы умеем решать широкий круг задач и учимся решать те проблемы, с которыми раньше не сталкивались. Мы способны учиться новым ситуациям и новым вещам. Мы понимаем, что физические объекты существуют в трехмерной среде и подвержены различным физическим свойствам, включая течение времени. Способность искусственно воспроизвести мыслительные способности человеческого уровня или искусственный общий интеллект (AGI) просто не существует в том, что мы сегодня называем ИИ.
[ Также на InfoWorld: Глубокое обучение против машинного обучения: понимание различий ]
Это не умаляет того ошеломляющего успеха, которым ИИ пользуется на сегодняшний день. Google Search — выдающийся пример искусственного интеллекта, которым регулярно пользуется большинство людей. Google способен искать объемы информации с невероятной скоростью, чтобы предоставить (обычно) результаты, которые хочет пользователь, в верхней части списка.
Точно так же голосовой поиск Google позволяет пользователям произносить поисковые запросы. Пользователи могут сказать что-то, что звучит двусмысленно, и получить результат, который правильно написан, написан с заглавной буквы, пунктуирован и, в довершение всего, обычно то, что имел в виду пользователь.
Как это работает так хорошо? У Google есть исторические данные о триллионах поисковых запросов и о том, какие результаты выбрал пользователь.Исходя из этого, он может предсказать, какие поиски вероятны и какие результаты сделают систему полезной. Но никто не ожидает, что система понимает, что она делает или какой-либо из результатов, которые она представляет.
Это подчеркивает потребность в огромном количестве исторических данных. Это очень хорошо работает в поиске, потому что каждое взаимодействие с пользователем может создать элемент данных обучающего набора. Но если тренировочные данные необходимо пометить вручную, это трудная задача. Кроме того, любое смещение в тренировочном наборе будет напрямую влиять на результат. Если, например, система разработана для прогнозирования преступного поведения и обучена с использованием исторических данных, включающих расовые предубеждения, итоговое приложение также будет иметь расовые предубеждения.
Персональные помощники, такие как Alexa или Siri, следуют сценариям с многочисленными переменными и поэтому могут создавать впечатление более способных, чем они есть на самом деле. Но, как известно всем пользователям, все, что вы скажете, чего нет в сценарии, приведет к непредсказуемым результатам.
В качестве простого примера вы можете спросить личного помощника: «Кто такой Купер Купп?» Фраза «Кто есть» запускает веб-поиск по переменной оставшейся части фразы и, скорее всего, даст релевантный результат. Благодаря множеству различных триггеров и переменных сценария система создает видимость некоторой степени интеллекта, хотя на самом деле выполняет манипуляции с символами. Из-за отсутствия основного понимания только 5% людей говорят, что никогда не разочаровываются, используя голосовой поиск.
Масштабная программа, такая как GPT3 или Watson, обладает такими впечатляющими возможностями, что концепция сценария с переменными совершенно невидима, что позволяет создать видимость понимания. Тем не менее, их программы все еще смотрят на ввод и выдают определенные выходные ответы. Наборы данных, лежащие в основе ответов ИИ («сценарии»), теперь настолько велики и изменчивы, что часто трудно заметить лежащий в их основе сценарий — до тех пор, пока пользователь не отключится от сценария.Как и в случае со всеми другими приведенными примерами ИИ, ввод их вне сценария приведет к непредсказуемым результатам. В случае GPT-3 обучающая выборка настолько велика, что устранение смещения до сих пор оказалось невозможным.
Нижняя линия? Фундаментальным недостатком того, что мы сегодня называем ИИ, является отсутствие у него понимания здравого смысла. Во многом это связано с тремя историческими предположениями:
- Основное предположение, лежащее в основе большинства разработок ИИ за последние 50 лет, заключалось в том, что простые проблемы с интеллектом встанут на свои места, если мы сможем решить сложные. К сожалению, это оказалось ложным предположением. Лучше всего это можно выразить как парадокс Моравека. В 1988 году Ганс Моравек, выдающийся робототехник из Университета Карнеги-Меллона, заявил, что сравнительно легко заставить компьютеры демонстрировать производительность на уровне взрослых в тестах на интеллект или при игре в шашки, но трудно или невозможно научить их навыкам годовалого обучения. -старый, когда дело доходит до восприятия и подвижности. Другими словами, часто сложные проблемы оказываются более простыми, а кажущиеся простыми проблемы оказываются непомерно сложными.
- Следующее предположение состоит в том, что если вы создадите достаточно узких приложений ИИ, они вместе вырастут в общий интеллект. Это также оказалось ложным. Узкие приложения ИИ не хранят свою информацию в обобщенной форме, поэтому другие узкие приложения ИИ могут использовать ее для расширения охвата. Приложения для обработки речи и приложения для обработки изображений могут быть сшиты вместе, но их нельзя интегрировать так, как ребенок легко интегрирует зрение и слух.
- Наконец, было общее мнение, что если бы мы могли просто построить достаточно большую систему машинного обучения с достаточной вычислительной мощностью, она бы спонтанно продемонстрировала общий интеллект. Это восходит к временам экспертных систем, которые пытались зафиксировать знания в определенной области.Эти усилия ясно продемонстрировали, что невозможно создать достаточно случаев и примеров данных, чтобы преодолеть лежащее в основе непонимание. Системы, которые просто манипулируют символами, могут создавать видимость понимания до тех пор, пока некий «нестандартный» запрос не выявит ограничение.
Почему эти проблемы не являются главным приоритетом индустрии ИИ? Короче, следи за деньгами.
Рассмотрим, например, подход к развитию способностей, таких как складывание кубиков, для трехлетнего ребенка. Конечно, вполне возможно разработать ИИ-приложение, которое научилось бы складывать блоки так же, как этот трехлетний ребенок. Однако вряд ли он получит финансирование. Почему? Во-первых, кому захочется вкладывать миллионы долларов и годы разработки в приложение, выполняющее единственную функцию, которую может сделать любой трехлетний ребенок, но ничего более общего?
Однако большая проблема заключается в том, что даже если бы кто-то финансировал такой проект, ИИ не демонстрирует настоящего интеллекта. У него нет ситуационной осведомленности или контекстуального понимания. Более того, ему не хватает того, что может сделать каждый трехлетний ребенок: стать четырехлетним, затем пятилетним, а затем десятилетним и пятнадцатилетним. Врожденные способности трехлетнего ребенка включают в себя способность вырасти до полноценного, в целом умного взрослого человека.
[ Будьте в курсе последних разработок в области анализа данных и машинного обучения. Подпишитесь на информационный бюллетень InfoWorld First Look ]
Вот почему термин «искусственный интеллект» не работает. Здесь просто не так много интеллекта. Большая часть того, что мы называем ИИ, основана на одном алгоритме — обратном распространении. Это называется глубоким обучением, машинным обучением, искусственными нейронными сетями и даже импульсными нейронными сетями. И это часто представляется как «работает как ваш мозг». Если вместо этого вы будете думать об ИИ как о мощном статистическом методе, вы будете ближе к цели.
Чарльз Саймон, BSEE, MSCS, является признанным на национальном уровне предпринимателем и разработчиком программного обеспечения, а также генеральным директором FutureAI. Саймон — автор книги «Будут ли компьютеры восставать?»: Подготовка к будущему искусственного интеллекта и разработчик Brain Simulator II, исследовательской программной платформы AGI. Для получения дополнительной информации посетите https://futureai.guru/Основатель.aspx.
New Tech Forum представляет собой площадку для изучения и обсуждения новых корпоративных технологий с беспрецедентной глубиной и широтой. Выбор субъективен и основан на выборе технологий, которые мы считаем важными и представляющими наибольший интерес для читателей InfoWorld. InfoWorld не принимает маркетинговые материалы для публикации и оставляет за собой право редактировать весь предоставленный контент. Присылайте все запросы на newtechforum@infoworld.com.
- Искусственный интеллект
- Машинное обучение
- Разработка программного обеспечения
- Аналитика
© 2022 IDG Communications, Inc.