Роль искусственного сознания в системах ИИ
Нынешнее поколение ИИ изменило мир, в котором мы живем. В последнее десятилетие алгоритмы глубокого обучения позволили системам ИИ выполнять задачи распознавания образов, такие как распознавание речи и изображений, так же, как и люди, или даже лучше.Однако существует общее мнение, что этой технологии самой по себе недостаточно для обеспечения интеллекта человеческого уровня [1]. Хотя алгоритмы ИИ могут быть более мощными, чем люди, они очень мало понимают в том, что делают. Некоторые видные исследователи ИИ говорят, что понимание необходимо, потому что даже если программа ИИ может решить проблему так же компетентно, как человек, у них может не быть более широкого контекста, чтобы судить о ценности их решения. Другими словами, в настоящее время они не способны придавать значение в человеческом смысле тому, что они делают. Это скорее проблема сознания, чем интеллекта. В этой статье я объясняю роль машинного сознания для улучшения систем ИИ.
Сознание человека
Есть разница между интеллектом и сознанием. Проще говоря, интеллект — это способность решать проблемы. Так, например, если шахматная программа ИИ может победить большинство людей, то разумно приписать интеллект этой программе ИИ, поскольку считается, что хорошая игра в шахматы требует интеллекта, если в нее играет человек.
Другое дело, когда дело доходит до сознания, потому что очень трудно найти объективное определение, отражающее сущность сознания. Некоторые говорят, что сознание — это то состояние, которое мы все чувствуем, когда бодрствуем, а не когда спим, но это не так, потому что сновидение — это состояние сознания. Кроме того, это слишком узкое определение, потому что оно ничего не говорит о том, что происходит с нами каждую минуту нашей жизни. Мы все знаем по собственному опыту, что такое сознание, но очень трудно дать определение. Это напоминает мне слова джазового трубача Луи Армстронга, когда его однажды попросили дать определение джазу. Он сказал: «Если ты спросишь, ты никогда не узнаешь». То же самое и для сознания.
Мы все боремся с определением, но все мы знаем, каково это, когда мы прыгаем в холодный бассейн, или когда мы чувствуем вкус этой ледяной воды в очень жаркий солнечный день, или подъем, который мы чувствуем, когда слышим этот золотой звук. старичок по радио, о котором мы почти забыли. Мы можем представить множество хороших, плохих и нейтральных переживаний, которые помогают создать реальность сознания. У всех нас есть внутренний субъективный опыт каждый день нашей жизни — философы называют этот опыт квалиа.
Эти квалиа-опыты придают смысл нашей жизни, но может ли искусственное сознание когда-либо ощущать смысл реальности таким же образом? Когда мы думаем о лошади, например, все наши чувства зрения, звука, обоняния, осязания и т. д. объединяются в нашем сознании, чтобы вызвать воспоминания о лошади. Мы визуализируем четвероногое пушистое животное, бегущее по полям, издавающее ржание и имеющее характерный запах. Мы можем визуализировать множество других переживаний, связанных с лошадьми, таких как тяга повозки, работа в конюшне и так далее. Эти сознательные переживания способствуют нашему пониманию «здравого смысла», которое возникло из наших сознательных переживаний. Существуют системы искусственного интеллекта, такие как CYC, которые могут улавливать эти человеческие знания здравого смысла. CYC знает эти факты и отношения о лошади, но не может придавать значения и понимания так же, как это делаем мы, люди.
Это имеет значение? Да, очень редко, потому что программы ИИ иногда с трудом справляются с новыми и неожиданными ситуациями. Например, когда мы ведем машину, мы используем наше гибкое понимание реальности в мире, чтобы справляться с необычными ситуациями, с которыми мы, возможно, никогда раньше не сталкивались — в отличие от программы ИИ, которая использует алгоритмы машинного обучения для принятия решений на основе изученных предыдущих примеров вождения. Большая часть того, что мы делаем за рулем, рутинна и легко воспроизводится искусственным интеллектом. Но представьте, что во время вождения вы попали в землетрясение, которое вызвало просадку дороги во время моего путешествия.Инстинкт подсознательно подсказывал мне замедлиться. Я, вероятно, предпринял бы другие инстинктивные действия, например, избегал бы находиться на мосту или рядом с ним, поскольку существует вероятность того, что мост рухнет из-за силы тяжести. Знаний здравого смысла может быть недостаточно, потому что существует бесконечно много возможных способов, которыми такое событие могло бы разыграться, так что все это никогда не могло бы быть объяснено.
Что бы сделала программа ИИ в такой ситуации? Вы можете подумать, что можно добавить больше изученных случаев в свою базу знаний, но как это сделать, если такие случаи никогда ранее не встречались? Проблема в том, что программе ИИ придется действовать и рассуждать в непредвиденной ситуации. Это может быть очень редкая ситуация, но это может произойти. Кроме того, редкие события такого рода становятся все более частыми. Николас Талеб, математический статистик, изучил концепцию очень редких событий, называемых событиями «черного лебедя», после мирового банковского краха в 2008 году. В своей книге под названием «Черный лебедь» [2] он показывает, как такие редкие события имеющие катастрофические последствия, неправомерно рационализируются, поскольку такие события становятся все более частыми. Его книга получила такое название, потому что считалось невозможным наблюдать за черным лебедем — считалось, что все лебеди белые. С его утверждением трудно не согласиться. Например, кто мог предвидеть пандемию Covid-19. Событие черного лебедя, если оно когда-либо было.
Искусственное сознание
Это означает, что программ ИИ, обладающих здравым смыслом, может быть недостаточно для решения непредвиденных ситуаций, потому что трудно понять пределы знания здравого смысла. Возможно, искусственное сознание — единственный способ придать машине смысл. Конечно, искусственное сознание будет отличаться от человеческого варианта.Такие философы, как Декарт, Дэниел Деннет, физик Роджер Пенроуз и многие другие, выдвинули различные теории сознания о том, как мозг производит мышление в результате нейронной активности. Инструменты нейробиологии, такие как сканеры фМРТ, могут привести к лучшему пониманию того, как это происходит, и позволят перейти на следующий уровень гуманизации ИИ. Но для этого потребуется столкнуться с тем, что австралийский философ Дэвид Чалмерс называет трудной проблемой сознания: как субъективность может возникнуть из материи? Иными словами, как могут субъективные переживания возникать из активности нейронов в мозгу? Кроме того, наше понимание человеческого сознания может быть понято только через наш собственный внутренний опыт — перспективу от первого лица. То же самое относится и к искусственному сознанию. Он будет доступен нам только с точки зрения третьего лица. Это поднимает вопрос, как мы узнаем, есть ли у машины сознание? Более подробно я рассмотрю этот вопрос в своей следующей статье.
использованная литература
[1] Маркус Г. и Дэвис Э. Перезагрузка ИИ. Создание искусственного интеллекта, которому мы можем доверять. Книги Пантеона, 2019.
[2] Талеб, Н. Н. Черный лебедь: второе издание, 2010 г.