12 просмотров

Сильный ИИ

Узнайте о сильном ИИ — теоретической форме ИИ, которая воспроизводит человеческие функции, такие как рассуждение, планирование и решение проблем.

Что такое сильный ИИ?

Сильный искусственный интеллект (ИИ), также известный как общий искусственный интеллект (ИИА) или общий ИИ, представляет собой теоретическую форму ИИ, используемую для описания определенного образа мышления при разработке ИИ. Если исследователи смогут разработать сильный ИИ, машине потребуется интеллект, равный человеческому; у него будет самоосознающее сознание, способное решать проблемы, учиться и планировать будущее.

Сильный ИИ направлен на создание интеллектуальных машин, неотличимых от человеческого разума. Но, как и ребенок, машина ИИ должна будет учиться на входе и опыте, постоянно совершенствуясь и совершенствуя свои способности с течением времени.

Хотя исследователи ИИ как в академических кругах, так и в частном секторе инвестируют в создание общего искусственного интеллекта (ИИА), сегодня он существует только как теоретическая концепция, а не осязаемая реальность. В то время как некоторые люди, такие как Марвин Мински, были процитированы как чрезмерно оптимистичные в отношении того, чего мы могли бы достичь за несколько десятилетий в области ИИ; другие скажут, что системы Сильного ИИ невозможно даже разработать. Пока критерии успеха, такие как интеллект и понимание, не определены явно, они верны в этом убеждении. На данный момент многие используют тест Тьюринга для оценки интеллекта системы ИИ.

Статья в тему:  Как YouTube использует искусственный интеллект

Испытания сильного ИИ

Тест Тьюринга

Алан Тьюринг разработал тест Тьюринга в 1950 году и описал его в своей статье «Вычислительные машины и интеллект» (PDF, 566 КБ) (ссылка находится вне IBM). Первоначально известный как игра в имитацию, тест оценивает, можно ли отличить поведение машины от поведения человека. В этом тесте есть человек, известный как «дознаватель», который пытается определить разницу между выводом, сгенерированным компьютером, и выводом, созданным человеком, с помощью серии вопросов. Если следователь не может надежно отличить машины от людей, машина проходит тест. Однако, если оценщик может правильно идентифицировать реакции человека, это исключает возможность классификации машины как интеллектуальной.

Хотя для теста Тьюринга не существует установленных правил оценки, Тьюринг указал, что оценщик-человек будет иметь только 70% шанс правильно предсказать разговор между человеком и компьютером через 5 минут. Тест Тьюринга ввел общее признание идеи машинного интеллекта.

Однако оригинальный тест Тьюринга проверяет только один набор навыков — например, вывод текста или шахматы. Сильный ИИ должен одинаково хорошо выполнять множество задач, что привело к разработке расширенного теста Тьюринга. Этот тест оценивает текстовую, визуальную и слуховую производительность ИИ и сравнивает ее с выводом, созданным человеком. Эта версия используется в знаменитом конкурсе Loebner Prize, где судья-человек угадывает, был ли результат создан человеком или компьютером.

Аргумент китайской комнаты (CRA)

Аргумент китайской комнаты был создан Джоном Сирлом в 1980 году. В своей статье он обсуждает определение понимания и мышления, утверждая, что компьютеры никогда не смогут этого сделать. В этом отрывке из его статьи с веб-сайта Стэнфорда (ссылка находится за пределами IBM) хорошо резюмируется его аргумент:

Статья в тему:  Что такое фактор уверенности в искусственном интеллекте

«Вычисление определяется чисто формально или синтаксически, в то время как умы имеют действительное ментальное или семантическое содержание, и мы не можем перейти от синтаксического к семантическому, просто имея синтаксические операции и ничего больше… китайского языка, просто выполняя шаги компьютерной программы, имитирующей поведение говорящего по-китайски (стр. 17)».

Аргумент китайской комнаты предлагает следующий сценарий:

Представьте себе человека, который не говорит по-китайски, сидит в закрытой комнате. В комнате есть книга с правилами китайского языка, фразами и инструкциями. Другой человек, свободно говорящий по-китайски, передает в комнату записки, написанные на китайском языке. С помощью языкового разговорника человек, находящийся в комнате, может выбрать подходящий ответ и передать его говорящему по-китайски.

Хотя человек в комнате смог дать правильный ответ, используя языковой разговорник, он или она по-прежнему не говорит и не понимает по-китайски; это была просто имитация понимания путем сопоставления вопросов или утверждений с соответствующими ответами. Сирл утверждает, что для сильного ИИ потребуется реальный разум, чтобы иметь сознание или понимание. Аргумент китайской комнаты иллюстрирует недостатки теста Тьюринга, демонстрируя различия в определениях искусственного интеллекта.

Сильный ИИ против слабого ИИ

Слабый ИИ, также известный как узкий ИИ, фокусируется на выполнении конкретной задачи, такой как ответы на вопросы, основанные на вводе данных пользователем, или игра в шахматы. Он может выполнять один тип задач, но не оба, в то время как сильный ИИ может выполнять множество функций, в конечном итоге обучаясь решать новые проблемы. Слабый ИИ полагается на вмешательство человека для определения параметров своих алгоритмов обучения и предоставления соответствующих обучающих данных для обеспечения точности.Хотя человеческий вклад ускоряет фазу роста сильного ИИ, он не требуется, и со временем он развивает человеческое сознание, а не имитирует его, как слабый ИИ. Самоуправляемые автомобили и виртуальные помощники, такие как Siri, являются примерами слабого ИИ.

Статья в тему:  Какие компании искусственного интеллекта создают секс-роботов

Сильные тренды ИИ

Хотя явных примеров сильного искусственного интеллекта нет, область ИИ быстро развивается. Появилась еще одна теория ИИ, известная как искусственный сверхинтеллект (ИСИ), сверхразум или суперИИ. Этот тип ИИ превосходит сильный ИИ по интеллекту и способностям человека. Тем не менее, Супер ИИ по-прежнему является чисто умозрительным, поскольку нам еще предстоит получить примеры сильного ИИ.

При этом есть области, в которых ИИ играет более важную роль, например:

  • Кибербезопасность: Искусственный интеллект будет играть больше ролей в мерах кибербезопасности организаций, включая обнаружение нарушений, мониторинг, анализ угроз, реагирование на инциденты и анализ рисков.
  • Развлечение и создание контента: Программы информатики уже все лучше и лучше производят контент, будь то копирайтинг, поэзия, видеоигры или даже фильмы. ИИ-приложение OpenAI для генерации текста GBT-3 уже создает контент, который почти невозможно отличить от текста, написанного людьми.
  • Поведенческое распознавание и предсказание: Алгоритмы прогнозирования сделают ИИ сильнее, начиная от применения в прогнозах погоды и фондового рынка и заканчивая, что еще более интересно, предсказаниями человеческого поведения. Это также поднимает вопросы о неявных предубеждениях и этичности ИИ. Некоторые исследователи ИИ в сообществе ИИ настаивают на наборе антидискриминационных правил, которые часто ассоциируются с хэштегом #responsibleAI.

Сильные термины и определения ИИ

Термины «искусственный интеллект», «машинное обучение» и «глубокое обучение» часто используются в неправильном контексте. Эти термины часто используются при описании сильного ИИ, поэтому стоит дать краткое определение каждому термину:

Статья в тему:  Как искусственный интеллект помогает выявлять туберкулез в отдаленных районах.

Искусственный интеллект, определенный Джоном Маккарти (PDF, 109 КБ) (ссылка находится за пределами IBM), представляет собой «науку и технику создания интеллектуальных машин, особенно интеллектуальных компьютерных программ. Это связано с аналогичной задачей использования компьютеров для понимания человеческого интеллекта, но ИИ не должен ограничиваться методами, которые поддаются биологическому наблюдению».

Машинное обучение — это подраздел искусственного интеллекта. Классические (неглубокие) модели машинного обучения требуют большего вмешательства человека для сегментации данных по категориям (т. е. посредством изучения признаков).

Глубокое обучение также является частью машинного обучения, которое пытается имитировать взаимосвязанность человеческого мозга с помощью нейронных сетей. Его искусственные нейронные сети состоят из слоев моделей, которые определяют закономерности в заданном наборе данных. Они используют большой объем обучающих данных для точного обучения, что впоследствии требует более мощного оборудования, такого как GPU или TPU. Алгоритмы глубокого обучения наиболее тесно связаны с искусственным интеллектом человеческого уровня.

Чтобы узнать больше о тонких различиях между этими технологиями, прочитайте «ИИ, машинное обучение, глубокое обучение и нейронные сети: в чем разница?»

Приложения для глубокого обучения

Глубокое обучение может хорошо справляться со сложными проблемами, и в результате сегодня оно используется во многих инновационных и новых технологиях. Алгоритмы глубокого обучения применяются в различных областях. Вот некоторые примеры:

  • Самоуправляемые автомобили: Google и Илон Маск показали нам, что беспилотные автомобили возможны. Однако беспилотным автомобилям требуется больше данных для обучения и тестирования из-за различных действий, которые необходимо учитывать, таких как предоставление права проезда или выявление мусора на дороге. По мере развития технологии ей нужно будет преодолеть человеческий фактор, поскольку опросы показывают, что многие водители не хотят ее использовать.
  • Распознавание речи: Распознавание речи, как и чат-боты с искусственным интеллектом и виртуальные агенты, является важной частью обработки естественного языка. Аудиовход гораздо сложнее обрабатывать для ИИ, так как многие факторы, такие как фоновый шум, диалекты, дефекты речи и другие факторы, могут значительно усложнить для ИИ преобразование ввода во что-то, с чем может работать компьютер.
  • Распознавание образов: Использование глубоких нейронных сетей улучшает распознавание образов в различных приложениях. Обнаружив шаблоны полезных точек данных, ИИ может отфильтровать ненужную информацию, провести полезные корреляции и повысить эффективность вычислений больших данных, которые обычно могут быть упущены людьми.
  • Компьютерное программирование: Слабый ИИ добился определенных успехов в создании осмысленного текста, что привело к прогрессу в кодировании. Совсем недавно OpenAI выпустила GPT-3, программное обеспечение с открытым исходным кодом, которое действительно может писать код и простые компьютерные программы с очень ограниченными инструкциями, обеспечивая автоматизацию разработки программ.
  • Распознавание изображений: Категоризация изображений может занять очень много времени, если делать это вручную. Однако специальные модификации глубоких нейронных сетей, таких как DenseNet, которые соединяют каждый слой с каждым другим слоем в нейронной сети, сделали распознавание изображений намного более точным.
  • Контекстные рекомендации: Приложения для глубокого обучения могут учитывать гораздо больше контекста при выработке рекомендаций, включая модели понимания языка и прогнозы поведения.
  • Проверка фактов: Университет Ватерлоо недавно выпустил инструмент, который может обнаруживать фальшивые новости, проверяя информацию в статьях, сравнивая ее с другими источниками новостей.
голоса
Рейтинг статьи
Статья в тему:  Как технологические гиганты разрабатывают настоящую этику для искусственного интеллекта
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x