Мнение: Что отличает людей от ИИ? это сомнение
Компьютеры могут управлять нашими автомобилями и побеждать нас в шахматах.Чего им не хватает, так это нашей способности знать, когда мы не знаем, говорит доктор Стив Флеминг (UCL Psychology and Language Sciences).
Люди — самосознательные животные, как мне сказали, когда я был студентом-психологом. Мы не только воспринимаем то, что нас окружает, но также можем размышлять о красоте заката — или задаваться вопросом, обманывают ли наши чувства иллюзии или фокусы. Мы не только принимаем важные финансовые или медицинские решения; мы рассматриваем, являются ли эти решения хорошими или плохими.
Одно дело быть сознательным, но знать, что мы сознательны, и иметь возможность думать о собственном разуме — вот тогда у меня закружилась голова.
Теперь рассмотрим роботов. С тех пор, как Алан Тьюринг разработал чертежи первого универсального компьютера в 1930-х годах, уникальность нашего интеллекта стала более сомнительной. Во многих сферах люди сейчас полностью превзойдены — даже в традиционных тестах интеллекта и изобретательности, таких как го, шахматы и компьютерные игры.
Но хотя алгоритмы, стоящие за этими подвигами, могут показаться потрясающе умными, в настоящее время они отличаются от людей в одном важном отношении — они не знают, чего они не знают, способность, которую психологи называют метапознанием.
Метапознание — это способность думать о своем собственном мышлении — например, распознавать, когда мы можем быть неправы или когда было бы разумно искать другое мнение.
Исследователи ИИ уже давно знают, что технология машинного обучения склонна к самоуверенности. Например, представьте, что я прошу искусственную нейронную сеть — часть компьютерной программы, вдохновленную тем, как работает мозг, которая может учиться выполнять новые задачи — классифицировать изображение дельфина, хотя все, что она видела, — это кошки и собаки. Неудивительно, что сеть, никогда не обучавшаяся на дельфинах, не может выдать ответ «дельфин». Но вместо того, чтобы опустить руки и признать поражение, он часто с высокой уверенностью дает неправильные ответы.
На самом деле, как показала статья 2019 года группы Маттиаса Хайна из Тюбингенского университета, по мере того, как тестовые изображения все больше и больше отличаются от тренировочных данных, уверенность ИИ растет, а не падает — прямо противоположно тому, что он должен делать.
Сейчас я руковожу исследовательской лабораторией в Университетском колледже Лондона, которая изучает механизмы мозга, поддерживающие самосознание и метапознание. Наше исследование имеет большое значение для того, как ученые-компьютерщики продолжают развивать ИИ — и не только для игр в шахматы, но и для беспилотных автомобилей и роботов, принимающих потенциально важные решения.
Это также должно заставить нас задуматься о том, что именно мы создаем, когда строим эти алгоритмы. История автоматизации свидетельствует о том, что как только машины становятся частью нашей повседневной жизни, люди, как правило, начинают успокаиваться в отношении связанных с этим рисков. Как отмечает философ Дэниел Деннет, «настоящая опасность… . . Дело не в том, что машины, более разумные, чем мы, узурпируют нашу роль вершителей наших судеб, а в том, что мы переоценим понимание наших новейших мыслительных инструментов, преждевременно уступив им полномочия, выходящие далеко за рамки их компетенции».
В моей лаборатории мы измеряем метапознание, прося людей играть в простые игры и оценивать, насколько они уверены в своих результатах. Некоторые из наших заданий просят людей запомнить списки слов, ответить на вопросы викторины, такие как «Насколько высок Монблан?» или классифицировать визуальные стимулы, такие как буквы, лица или узоры из точек. Если ваша уверенность выше, когда вы правы, и ниже, когда ошибаетесь, то ваше метапознание в хорошей форме.
Это мы тоже можем отследить. Благодаря появлению мощных технологий визуализации мозга, таких как функциональная МРТ, которая измеряет изменения кровотока, вызванные нейронной активностью, мы обнаружили, что, когда мы занимаемся метапознанием, определенные мозговые сети в префронтальной и теменной коре пробуждаются к жизни.Паттерны активности в этих сетях в мельчайших деталях сигнализируют о том, насколько мы уверены в своем выборе.
В свою очередь, повреждение или заболевание этих же сетей может привести к разрушительным нарушениям самосознания. Например, растет признание того, что деменция поражает не только цепи мозга, поддерживающие память, но и те, которые участвуют в метапознании. Без метапознания мы можем потерять способность понимать, что мы потеряли, или распознавать, когда нам нужна рука помощи. Связь между нашим представлением о себе и реальностью нашего поведения ослабевает.
Благодаря этому исследованию мы начинаем понимать, как мозг представляет собой неопределенность — как он знает, когда не знает, — и внедряем неопределенность в ИИ. Ингмар Познер, Ярин Галь и их коллеги из Оксфордского университета создают «интроспективных» роботов, которые знают, будут ли они правы, до принятия решения, а не постфактум. Один многообещающий подход, известный как «выпадение», запускает задачу через алгоритм нейронной сети несколько раз, каждый раз с немного разными настройками. Затем мы можем спросить, в какой степени совпадают полученные ответы — показатель того, насколько сеть не уверена в своем выборе.
Например — и показывая, как «отсев» снижает самоуверенность большинства технологий машинного обучения — если все ответы на задачу классификации изображений возвращают «собака», то мы можем быть более уверены, что изображение на самом деле является собакой, в то время как если некоторые ответов не согласны, то мы должны быть менее уверены.
В исследовании Хайна вычисления с вероятностями позволяют системе ИИ понять, что она раньше не сталкивалась со сценарием или изображением, что снижает ее уверенность в незнакомых ситуациях. Это похоже на метапознание.
Давайте представим, как может выглядеть будущее, в котором мы окружены метакогнитивными машинами.Беспилотные автомобили можно спроектировать (как внутри, так и снаружи), чтобы они мягко светились разными цветами в зависимости от того, насколько они уверены в том, что знают, что делать дальше — возможно, синее свечение, когда они уверены, и желтое свечение, когда они были неопределенными. Эти цвета могут сигнализировать пассажирам о необходимости взять на себя управление, когда это необходимо, и повысят доверие к тому, что наши автомобили знают, что они делают в любое другое время.
Любопытно, что такие сигналы уверенности могут также передаваться между самими автомобилями. Если две машины приближаются к перекрестку, и одна из них начинает светиться желтым, было бы разумно, если бы обе машины притормозили — точно так же, как это сделали бы водители, если бы не были уверены в намерениях друг друга. Врачи и их ассистенты с искусственным интеллектом могли бы в интерактивном режиме делиться уровнями уверенности, чтобы принять лучшее решение о диагностике или лечении, чем каждый из них смог бы принять в одиночку. Производственные роботы могут использовать аналогичные алгоритмы, чтобы подать сигнал, когда им нужна помощь.
У слепой погони за неопределенностью есть пределы — мы бы не хотели, чтобы наши роботы были парализованы неуверенностью в себе, особенно там, где требуются быстрые действия. Но наши исследования людей показывают, что преимущества метапознания для принятия решений перевешивают недостатки. Когда наше метапознание является точным, мы можем быть открыты для изменения курса, когда мы, вероятно, ошибаемся, и оставаться непоколебимыми, когда мы правы.
Когда я ранее цитировал Деннета, это было вполне обоснованно: мы склонны слишком доверять технологии, которую не понимаем. Но может не иметь значения, что мы не понимаем, как работают системы ИИ, если они связаны с нашей естественной способностью к метапознанию.
Учтите, что лишь небольшое число биологов в деталях понимают, как работает глаз. И все же мы можем мгновенно распознать, когда изображение может быть не в фокусе или когда нам нужна новая пара очков.Немногие люди понимают сложную биомеханику движения, и тем не менее мы знаем, когда ошиблись при подаче в теннисе или неудачно замахнулись клюшкой для гольфа. Точно так же машины будущего могут контролироваться нашим биологическим механизмом самосознания, не нуждаясь в инструкции по эксплуатации, чтобы понять, как это сделать.
Благодаря пластичности нейронных цепей мы уже знаем, что мозг может включать внешние устройства, как если бы они были новыми органами чувств или конечностями. С 1990-х годов нейробиологи продемонстрировали возможность управления роботами-манипуляторами только с помощью мысли, используя имплантаты, которые считывают модели нейронной активности. Совсем недавно такие компании, как Neuralink Илона Маска, пообещали ускорить разработку таких технологий, используя хирургических роботов для интеграции имплантатов с нервной тканью.
И хотя большинство исследований этих «интерфейсов мозг-компьютер» сосредоточено на том, как мозг может контролировать внешний мир, нет принципиальной причины, по которой их нельзя было бы также использовать для мониторинга производительности автономных систем. Точно так же, как мы осознаем, когда неуклюже опрокидываем стекло или включаем не ту передачу в машине, мы можем приобрести естественное чувство, когда наши ИИ вот-вот сломаются, позволяя нам вмешаться и взять на себя управление.
Замечательным дополнительным преимуществом этого исследования метапознания и его применения к технологиям является то, что оно может повысить доверие и подотчетность систем ИИ. Сократ считал, что способность исследовать то, что мы знаем и чего не знаем, является признаком мудрости, а современные философы, такие как Гарри Франкфурт, предположили, что осознание наших желаний является основой автономии. Мы легко полагаемся на самосознание, чтобы объяснить друг другу, что мы сделали и почему — способность, которая лежит в основе наших правовых и образовательных систем.
Как написал покойный бывший главный раввин Великобритании Джонатан Сакс в своей книге «Нравственность»: «Если мы стремимся сохранить нашу человечность, ответ не в повышении интеллекта. . . [Именно] самосознание делает людей разными». Способность сомневаться, задавать себе вопросы, добиваться того, чего мы еще не знаем, питает научное творчество, которое в первую очередь создало ИИ.
Расширяя возможности самосознания — как биологического, так и искусственного — мы можем создать мир, в котором мы не только познаем собственный разум, но и начнем узнавать разум наших машин.
Эта статья первоначально появилась в Файнэншл Таймс 16 апреля 2021 года.
Ссылки
- Оригинал статьи в Файнэншл Таймс
- Академический профиль доктора Стива Флеминга
- Экспериментальная психология UCL
- UCL Отделение психологии и языковых наук
- UCL Факультет наук о мозге