7 просмотров

Как сделать искусственный интеллект разумным

Чтобы искусственный интеллект продемонстрировал истинную чувствительность, он должен выйти за рамки естественного языка и продемонстрировать мышление, восприятие и чувства.

05 июля 2022 г.
10:26

Фото: Юитиро Чино/Getty Images

Как скажет вам любой великий иллюзионист, весь смысл постановочной иллюзии в том, чтобы выглядеть предельно убедительно, чтобы все, что происходит на сцене, выглядело настолько реальным, чтобы средний зритель не смог понять, как работает иллюзия.

Если бы это было не так, это не было бы иллюзией, и иллюзионист, по сути, остался бы без работы. В этой аналогии Google является иллюзионистом, а его чат-бот LaMDA, который попал в заголовки газет несколько недель назад после того, как ведущий инженер заявил, что разговорный ИИ достиг разума, — это иллюзия. То есть, несмотря на всплеск ажиотажа и спекуляций в соцсетях и СМИ в целом, а также несмотря на заявления инженера, LaMDA не является разумным.

Как можно доказать разумность ИИ?

Это, конечно, вопрос на миллион долларов, на который в настоящее время нет ответа.

LaMDA — это чат-агент на основе языковой модели, предназначенный для создания плавных предложений и разговоров, которые выглядят и звучат совершенно естественно. Текучесть резко контрастирует с неуклюжими и неуклюжими чат-ботами с искусственным интеллектом прошлого, которые часто приводили к разочаровывающим или непреднамеренно забавным «разговорам», и, возможно, именно этот контраст так сильно впечатлял людей, что и понятно.

Статья в тему:  Сочинение в чем плюсы и минусы искусственного интеллекта

Наша предвзятость к нормальности говорит нам, что только другие разумные человеческие существа способны так «членораздельно выражаться». Таким образом, наблюдая такой уровень артикуляции от ИИ, нормально чувствовать, что он, безусловно, должен быть разумным.

Чтобы ИИ действительно был разумным, он должен был бы уметь думать, воспринимать и чувствовать, а не просто использовать язык очень естественным образом. Однако ученые расходятся во мнениях относительно того, возможно ли, чтобы система ИИ могла достичь этих характеристик.

Есть ученые, такие как Рэй Курцвейл, которые считают, что человеческое тело состоит из нескольких тысяч программ, и, если мы сможем понять все эти программы, мы сможем создать разумную систему искусственного интеллекта.

Но другие не согласны на том основании, что: 1) человеческий интеллект и функциональные возможности не могут быть сопоставлены с конечным числом алгоритмов и 2) даже если система воспроизводит все эти функциональные возможности в той или иной форме, ее нельзя рассматривать как действительно разумную, потому что сознание это не то, что может быть создано искусственно.

Помимо этого раскола среди ученых, пока еще не существует общепринятых стандартов для доказательства предполагаемой разумности системы ИИ. Знаменитый тест Тьюринга, который в настоящее время часто упоминается в социальных сетях, предназначен только для измерения способности машины демонстрировать явно разумное поведение, которое наравне с человеческим или неотличимо от него.

Статья в тему:  Что такое искусственный интеллект научные статьи

Он не может в достаточной мере сказать нам что-либо об уровне машинного сознания (или его отсутствии). Следовательно, хотя ясно, что LaMDA с честью прошел тест Тьюринга, само по себе это не доказывает наличие самоосознающего сознания. Это лишь доказывает, что оно может создать иллюзию обладания самоосознающим сознанием, для чего оно и предназначено.

Когда, если вообще когда-нибудь, ИИ станет разумным?

В настоящее время у нас есть несколько приложений, демонстрирующих искусственный узкий интеллект. ANI — это тип ИИ, предназначенный для очень хорошего выполнения одной задачи. Примеры этого включают программное обеспечение для распознавания лиц, инструменты картирования заболеваний, фильтры рекомендаций по содержанию и программное обеспечение, которое может играть в шахматы.

LaMDA подпадает под категорию искусственного общего интеллекта, или AGI, также называемого «глубоким ИИ», то есть ИИ, предназначенного для имитации человеческого интеллекта, который может применять этот интеллект в различных задачах.

Чтобы ИИ был разумным, ему нужно было бы выйти за рамки такого рода задачного интеллекта и продемонстрировать восприятие, чувства и даже свободную волю. Однако, в зависимости от того, как мы определяем эти понятия, вполне возможно, что у нас никогда не будет разумного ИИ.

Даже в лучшем случае это заняло бы по крайней мере еще пять-десять лет, если бы мы могли определить вышеупомянутые понятия, такие как сознание и свобода воли, универсально стандартизированным, объективно охарактеризованным способом.

Статья в тему:  Как искусственный интеллект способен учиться. наблюдение

Один ИИ, чтобы править всеми… или нет

История LaMDA напоминает мне о том, как производственная группа режиссера Питера Джексона создала ИИ, метко названный Massive, для создания эпических батальных сцен в трилогии «Властелин колец».

Задача Massive заключалась в том, чтобы наглядно смоделировать тысячи отдельных компьютерных солдат на поле боя, каждый из которых действовал как независимая единица, а не просто имитировал одни и те же движения. Во втором фильме «Две башни» есть сцена битвы, когда плохие парни выводят отряд гигантских мамонтов, чтобы атаковать хороших парней.

Как гласит история, пока команда впервые тестировала эту последовательность, солдаты CGI, играющие хороших парней, увидев мамонтов, убежали в другом направлении, вместо того, чтобы сражаться с врагом. Быстро распространились слухи, что это был разумный ответ: солдаты CGI «решили», что они не могут выиграть эту битву, и вместо этого решили бежать, спасая свою жизнь.

На самом деле солдаты бежали в другую сторону из-за отсутствия данных, а не из-за какого-то внезапно обретенного разума. Команда внесла некоторые изменения, и проблема была решена. Кажущаяся демонстрация «интеллекта» была ошибкой, а не фичей. Но в таких ситуациях заманчиво и увлекательно обрести разум. В конце концов, мы все любим хорошее магическое шоу.

Быть осторожным в том, чего мы желаем

Наконец, я считаю, что мы должны действительно спросить себя, хотим ли мы вообще, чтобы системы ИИ были разумными. Мы настолько увлеклись ажиотажем вокруг разума ИИ, что недостаточно задались вопросом, является ли это той целью, к которой мы должны стремиться.

Статья в тему:  Как искусственный интеллект сегодня используется в медицинской диагностике

Я не имею в виду опасность того, что разумный ИИ повернется против нас, как любят изображать многие антиутопические научно-фантастические фильмы.Просто у нас должно быть четкое представление о том, почему мы хотим чего-то достичь, чтобы привести технологические достижения в соответствие с потребностями общества.

Что хорошего может выйти из разума ИИ, кроме того, что это «круто» или «захватывающе»? Почему мы должны это делать? Кому бы это помогло? Было показано, что даже некоторые из наших лучших намерений с этой технологией имеют опасные побочные эффекты — например, системы искусственного интеллекта на основе языковой модели в медицинских вопросах и ответах рекомендуют совершить самоубийство — без того, чтобы мы устанавливали вокруг них надлежащие ограждения.

Будь то здравоохранение или беспилотные автомобили, мы сильно отстаем от технологий, когда речь идет о понимании, реализации и использовании ответственности ИИ с учетом социальных, юридических и этических соображений.

Пока у нас не будет достаточно дискуссий и резолюций в этом направлении, я боюсь, что шумиха и неправильные представления об ИИ будут продолжать доминировать в массовом воображении. Нас может развлекать театральность Волшебника страны Оз, но, учитывая потенциальные проблемы, которые могут возникнуть из-за этих заблуждений, пришло время приоткрыть завесу и раскрыть скрытую за ней менее фантастическую правду.

Доктор Чираг Шах — адъюнкт-профессор Школы информации Вашингтонского университета.

голоса
Рейтинг статьи
Статья в тему:  Что такое эвристический поиск в искусственном интеллекте
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x