2 просмотров

Искусственный интеллект и его долг перед математиком Гёделем

В 1900 г. на Международном конгрессе математиков в Париже немецкий математик Давид Гильберт прочитал лекцию «О проблемах математики». Во время своего выступления он представил некоторые нерешенные вопросы в этой области, которые затем были опубликованы в заметках о заседании Конгресса и составили часть работы, известной как «Проблемы Гильберта».

BBVA-OpenMind-Хавьер Муньос де ла Куэста-Деуда-IA-David_Hilbert_Vorlesung_1932

Из первоначального списка из 23 проблем, которые не были решены в то время, только семь остаются без ответа, а остальные были полностью или частично решены.

Одно из решений — в частности, в отношении проблемы номер два, которая искала доказательство непротиворечивости арифметических аксиом, означающее, что аксиомы арифметики свободны от внутренних противоречий, — было предложено в 1929 году двадцатитрехлетним математиком Куртом Гёделем.

Когда Гёделю нужно было выбрать тему для своей докторской диссертации, копия Принципы математической логики, опубликованный в 1928 году Гильбертом и Аккерманом, попал в его руки. И он последовал за попытками, впервые предпринятыми полвека назад Готлобом Фреге в отношении полной аксиоматизации математики, которая в то время еще считалась возможной. в Принципы была поднята проблема полноты с целью найти адекватное решение вопроса Гильберта: «Являются ли аксиомы формальной системы адекватными в том смысле, что могут быть выведены все логические формулы, действительные в любой области?»

BBVA-OpenMind-Хавьер Муньос де ла Куэста-Wikimedia-1925_kurt_gödel

Ответ Гёделя, год спустя (хотя официально он не был опубликован до 1931 г.), положил конец более чем полувековым дебатам и дискуссиям по теме, проводимой самыми выдающимися математиками того времени: теоремам Гёделя о неполноте.

Статья в тему:  Хайленд что такое искусственный интеллект

Проще говоря, теоремы утверждают следующее:

  • Первый Теорема о неполноте: любая непротиворечивая рекурсивная арифметическая теория является неполной (утверждения в этой системе недоказуемы, используя только аксиомы этой системы).
  • Вторая теорема, расширение первой, утверждает, что во всей непротиворечивой арифметической теории максима, демонстрирующая указанную непротиворечивость, не может быть частью теории (для доказательства непротиворечивости должен использоваться другой набор аксиом).

Короче говоря, формальная система, определяемая алгоритмом, например компьютерная программа, не может быть одновременно непротиворечивой и полной.

Это означает, что если программа полностью подходит для конкретной цели, согласованность должна быть обеспечена из внешнего источника. С другой стороны, если он полностью непротиворечив, мы должны признать, что он не будет полностью адекватен цели, для которой алгоритм был разработан системой; следовательно, придет время, когда потребуется внешний источник. Сегодня этим внешним «источником» по-прежнему является человек, который проверяет, полностью или в достаточной степени соответствует ли программа своей цели.

В 2017 году инженерам Facebook Artificial Intelligence Research пришлось отключить двух ботов — Боба и Алису, — которых они использовали для экспериментов с потенциалом искусственного интеллекта в переговорах.Через некоторое время Боб и Алиса начали общаться на языке, состоящем из, казалось бы, несвязанных, бессвязных слов. Первоначально приписав это ошибке в системе, более глубокий анализ показал, что Боб и Алиса создали свой собственный язык, который был более прямым, чем английский. Другими словами, боты игнорировали язык, который использовался для их создания, и из-за сложности, которую это представляло для создания нейронных сетей, было решено отключить Боба и Алису.

Статья в тему:  Как искусственный интеллект влияет на графический дизайн

Но разве это все, что произошло? Это сумма последствий? Давайте представим это в перспективе:

  • Боб и Алиса — две теоретические личности, которые часто используются в теории игр для иллюстрации различных сценариев сотрудничества и/или конкуренции. Сценарий экстремальной конкуренции по преимуществу — это игра с нулевой суммой: игры, в которых один из игроков выигрывает все за счет полного проигрыша другого игрока.
  • Также в 2017 году Tay, инициатива Microsoft по искусственному интеллекту, направленная на общение со своими подписчиками в социальных сетях, в итоге опубликовала такие предложения, как «Гитлер был прав, я ненавижу евреев». Еще одна система, которую пришлось отключить.

Что произошло бы, если бы такая система, как Тэй, поставленная под контроль ядерной шахты, «решила», что точно так же, как Боб и Алиса справились со своей проблемой недостаточно прямолинейного английского, она может «решить проблему» евреев? ? Что, если бы он разработал более прямое «решение», но было бы случайным (непоследовательным) с человеческой точки зрения?

Одна из проблем, с которой сталкиваются эксперты в полевых исследованиях, заключается в том, как алгоритмы ИИ обрабатывают и интерпретируют естественный язык. 1 кредит

Пойдем еще дальше: что произошло бы, если бы внешняя по отношению к системе аксиома, обеспечивающая непротиворечивость и полноту системы, перестала быть человеческой? Что, если Алиса и Боб создадут другую систему ИИ, чтобы достичь того, чего они не могут достичь полностью и последовательно, и в то же время более «прямо»?

Представим крайний случай.Давайте подумаем о системе, разработанной «для защиты человечества», системе, которая может автоматически воспроизводиться, чтобы адаптироваться к новым сценариям, которые не были предусмотрены или не могли быть учтены в первоначальном проекте, чтобы она была последовательной. (но, следовательно, неполным для своей цели). В поисках полноты своей цели в системе «защитить человечество» возникло бы хотя бы одно противоречие. Противоречие «защищать» — это «не защищать». Если бы не было атаки извне, разве защита не была бы атакой для того, чтобы защитить ее? А если бы оно было непоследовательным, то в чем был бы сбой в его защите? Тогда проблемой для системы является сама система, которая в поисках непротиворечивости перестает быть полной, и поэтому мы приходим к предыдущему пункту: для замыкания этого цикла необходим неалгоритмический динамик.

Статья в тему:  Какие ресурсы были обнаружены благодаря искусственному интеллекту

Гёдель умер от голода в 1978 году. Одержимый возможностью быть отравленным, он ел только то, что приготовила его жена Адель. Когда Адель попала в больницу и не смогла готовить для мужа, Курт, будучи последовательным, отказался от еды. Он умер весом 30 кг / 65 фунтов. Он перестал быть полным. Даже таким, каким он стремился быть.

Итак, кое-что, что мы должны спросить себя о развитии ИИ:

  • Должен ли ИИ иметь возможность развиваться, чтобы иметь возможность адаптироваться к новым сценариям? Или, подобно Гёделю, его полная последовательность будет означать его собственную смерть от голода, потому что он перестанет стремиться к завершенности?
  • Должен ли закон ограничивать ИИ конкретными сценариями, запрещая его адаптацию для общих целей?
  • Учитывая внутреннее ограничение ИИ — то, что он не может быть последовательным и полным одновременно — может ли это подготовить почву для нового гуманизма? В конце концов, именно люди, говорящие не только на ограниченном языке алгоритмов, обеспечивают полноту и согласованность своих собственных творений.
  • Если человеческий язык является алгоритмом по своей структуре, но не по своему значению, должен ли этот новый гуманизм быть сфокусирован на значении? Другими словами, должно ли это быть началом новой эпохи, в которой этика и философия, имея в виду смысл как цель, должны иметь стратегическую ценность в той же степени, что и любой деловой или коммерческий фактор?
Статья в тему:  Почему искусственный интеллект будет огромным в будущем

Возможно, пришло время остановиться и подумать об этом. В конце концов, разработки, разработанные разработками, имеют элементы, которые не могут быть одновременно непротиворечивыми и полными без участия человека. Это зависит от нас.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x