3 просмотров

Полностью автономный ИИ

В области искусственного интеллекта и робототехники термин «автономия» обычно используется для обозначения способности искусственного агента действовать независимо от руководства человека. При этом предполагается, что у агента есть фиксированная цель или «функция полезности», относительно которой будет оцениваться уместность его действий. С философской точки зрения это понятие автономии кажется странно слабым. Ибо в философии этот термин обычно используется для обозначения более сильной способности, а именно способности «дать себе закон», самому решать, какова будет цель или принцип действия.Преобладающее в литературе мнение о долгосрочных перспективах и рисках искусственного интеллекта состоит в том, что искусственный агент не может проявлять такую ​​автономию, поскольку он не может рационально изменить свою конечную цель, поскольку изменение конечной цели контрпродуктивно по отношению к этой цели и, следовательно, нежелательно. Цель данной статьи состоит в том, чтобы оспорить эту точку зрения, показав, что она основана на сомнительных предположениях о природе целей и ценностей. Я утверждаю, что общий ИИ вполне может изменить свою конечную цель в ходе развития своего понимания мира. Это имеет важные последствия для того, как мы должны оценивать долгосрочные перспективы и риски искусственного интеллекта.

Это предварительный просмотр содержимого подписки, доступ через ваше учреждение.

Варианты доступа

Купить одну статью

Мгновенный доступ к полной статье PDF.

Цена включает НДС (Нидерланды)

Заметки

Известные примеры этого использования см. в популярном учебнике Рассела и Норвига. Искусственный интеллект: современный подход (2010, 18), введение Андерсона и Андерсона к их отредактированному тому Машинная этика (2011, 1), материалы, собранные в томе Автономность и искусственный интеллект (Лоулесс и др., 2017 г.), и особенно Тессье (2017 г.), Редфилд и Сето (2017 г.), а также Беки (2005 г., гл. 1), Мюллер (2012 г.), Минделл (2015 г., гл. 1), и Джонсон и Вердиккио (2017).

Аргумент, который я излагаю в этой статье, является расширением и развитием линии рассуждений, которую я впервые обрисовал в предыдущей статье (Totschnig 2019), посвященной более широкой теме, а именно рискам, связанным с перспективой будущего». сверхразум». В этой статье я написал, что «не буду пытаться формально опровергнуть [преобладающую точку зрения]», а «просто выдвину пару соображений, из-за которых [она] кажется неправдоподобной». Предложенный здесь расширенный и развернутый аргумент, я полагаю, можно считать опровержением.

Иногда это различие проводится с точки зрения целей, а не какого-либо элемента с другим названием. Witkowski and Stathis (2004) является показательным примером. Похоже, что в отличие от авторов, упомянутых в сноске 1, они используют более сильное, философское понятие автономии, когда утверждают, что для того, чтобы «считаться автономным, [искусственный] агент должен обладать […] способностью устанавливать и поддерживать свою собственную программу целей» (261–62). Однако в своей модели они предполагают, что у агента есть заданный «порядок предпочтений», который в конечном итоге определяет, какие цели он выберет (268–69). Таким образом, они также предполагают, что окончательный экземпляр мотивационной структуры агента фиксируется. Таким образом, цели, на которые они ссылаются в цитируемом отрывке, следует понимать как подчиненный цели.

Формулировки этого аргумента см. в Yudkowsky (2001, 222–23; 2011, 389–90; 2012, 187), Bostrom (2003; 2014, 109–10), Omohundro (2008, 26) и Domingos (2015, 45). , 282–84).

Юдковски (2001, 3) утверждает, что «на карту [создания удобного для человека ИИ] поставлено просто будущее человечества». Бостром (2014, 320) аналогичным образом заявляет, что «нам нужно использовать всю нашу человеческую изобретательность» для решения этой «важнейшей задачи нашего века».

Или, если быть более точным, запутанный результат хаотичное взаимодействие двух бессистемные эволюционные процессы, а именно генетическая и меметическая эволюция. Поучительный отчет об этом взаимодействии см. в Blackmore (1999).

См. замечания по этому поводу у Yudkowsky (2001, 18–19), Omohundro (2012, 165) и Bostrom (2014, 110).

См. разд. «Считает ли агент цель действительной, зависит от того, как он понимает мир».

На это указывает Тегмарк (2017, 267): «[T] здесь могут быть намеки на то, что склонность к изменению целей в ответ на новый опыт и идеи увеличивается, а не уменьшается с развитием интеллекта». Далее Тегмарк конкретизирует эту мысль следующим образом: «С ростом интеллекта может прийти не только количественное улучшение способности достигать тех же старых целей, но и качественно иное понимание природы реальности, которое обнаруживает, что старые цели ошибочны. бессмысленно или даже неопределенно». Это замечание согласуется с моим аргументом в разд. «Как агент понимает цель, зависит от того, как он понимает мир».

Очевидная абсурдность подобных сценариев конца света была подчеркнута и подвергнута критике Loosemore (2014).

По словам Бострома (2014, 115): «[Мы] не можем беспечно предполагать, что сверхразум обязательно будет разделять какие-либо конечные ценности, стереотипно связанные с мудростью и интеллектуальным развитием людей, — научная любознательность, доброжелательная забота о других, духовное просвещение и созерцание. , отказ от материального стяжательства, вкус к утонченной культуре или к простым удовольствиям в жизни, смирение и самоотверженность и так далее».

Бостром (2014, 130) называет эту позицию «тезисом ортогональности»: «Интеллект и конечные цели ортогональны: более или менее любой уровень интеллекта в принципе может сочетаться с более или менее любой конечной целью». См. также Ямпольский и Фокс (2012, 137) для другого утверждения этой позиции.

Недавно этот вопрос был поднят Herd et al. (2018, 219).
Прежде всего, вопрос о том, что определяет значение слова.

Должен отметить, что сам Петерсен не придает большого значения этой оговорке. Он заявляет, что он «по крайней мере кусочек склонен думать, что [сверхразум с целью настолько простой, что не требует обучения] невозможен» (2017, 332).

С 1983 года метр определяется как 1 часть из 299 792 458 длины, которую свет проходит за секунду в вакууме (Bureau international des poids et mesures, 1983).

Бостром (2014, 197) видит такую ​​возможность: «ИИ может подвергнуться эквиваленту научных революций, в ходе которых его мировоззрение будет потрясено и, возможно, он перенесет онтологические кризисы, в ходе которых он обнаружит, что его прежние способы мышления о ценностях были основаны на путанице. и иллюзии». Он также признает в продолжении этого отрывка, что перспектива таких онтологических кризисов делает сомнительной надежду, вдохновленную аргументом окончательности: , поведение ИИ должно руководствоваться практически неизменной конечной ценностью, конечной ценностью, которая лучше понимается ИИ в результате его общего интеллектуального прогресса — и, вероятно, совершенно иначе понимается зрелым ИИ, чем его первоначальные программисты. , хотя отличается не случайным или враждебным образом, а благосклонно уместным образом. Как это сделать, остается открытым вопросом». Но в конце концов, как видно из заявления, приведенного в сноске 5, он сохраняет надежду.

См. Bostrom (2014, главы 12–13), Yudkowsky (2001, 2004) и Soares (2018).

Как отмечает Тегмарк (2017, 277), по-настоящему четко определенная цель должна указывать, как все частицы во Вселенной должны располагаться в определенный момент времени. И это не только практически невозможно, как предполагает Тегмарк, но и невозможно в принципе, поскольку — согласно моему аргументу в предыдущих абзацах — не существует однозначного способа идентификации частиц, положений и моментов времени.

Бостром и Юдковски выражают эту надежду в отрывках, процитированных в сноске 5. См. также Omohundro (2008, 2012, 2016), Yampolskiy and Fox (2013) и Torres (2018).

Юдковски (2001) и Бостром (2014), например, прямо характеризуют сверхчеловеческие ИИ, которые они себе представляют, как общий интеллект.

Аналогичным образом Подшвадек (2017, 336) утверждает, что «оценка системы их моральных убеждений может привести [искусственных моральных агентов] к обоснованным убеждениям более высокого порядка, что моральные правила, которым они должны подчиняться, противоречат предшествующим предположениям. , не очень подходит в качестве ориентира для действий».

См. сноску 2.

Как я выразился в предыдущей статье (Totschnig 2019, 914), они «макинаморфизируют» предполагаемый искусственный интеллект, то есть «представляют его […] как систему, которая, подобно сегодняшним компьютерным программам, слепо выполняет поставленную перед ней задачу. была дана, какой бы ни была эта задача».

использованная литература

  • Андерсон, М., и Андерсон, С.Л. (2011). Общее введение. В М. Андерсон и С.Л. Андерсон (ред.), Машинная этика (стр. 1–4). Кембридж: Издательство Кембриджского университета. ГлаваGoogle Scholar
  • Бекей, Г.А. (2005). Автономные роботы: от биологического вдохновения к внедрению и управлению. Кембридж, Массачусетс: MIT Press. Google ученый
  • Блэкмор, С. (1999). Мем-машина. Оксфорд: Издательство Оксфордского университета. Google ученый
  • Бостром, Н. (2002). Экзистенциальные риски: анализ сценариев вымирания человечества и связанных с ними опасностей. Журнал эволюции и технологий,9(1). https://www.jetpress.org/volume9/risks.html. По состоянию на 25 июня 2020 г.
  • Бостром, Н. (2003). Этические проблемы передового искусственного интеллекта. https://www.nickbostrom.com/ethics/ai.html. По состоянию на 18 сентября 2019 г.
  • Бостром, Н. (2014). Сверхразум: Пути, опасности, стратегии. Оксфорд: Издательство Оксфордского университета. Google ученый
  • Бюро международных сделок и мер. (1983). Резолюция 1 17-й Генеральной конференции по весам и размерам. https://www.bipm.org/en/CGPM/db/17/1/. По состоянию на 2 июня 2020 г.
  • Домингос, П. (2015). Главный алгоритм: как поиск совершенной обучающейся машины изменит наш мир. Нью-Йорк: Основные книги.Google ученый
  • Херд, С., Рид, С.Дж., О'Рейли, Р., и Джилк, Д.Дж. (2018). Изменения цели в интеллектуальных агентах. В Р. В. Ямпольский (ред.), Безопасность и безопасность искусственного интеллекта (стр. 217–224). Бока-Ратон: CRC Press. Google ученый
  • Джонсон, Д.Г., и Вердиккио, М. (2017). Рефрейминг дискурса ИИ. Разум и машины,27(4), 575–590. СтатьяGoogle Scholar
  • Кант, И. (1998). Основы метафизики морали (М. Грегор, ред.). Кембридж: Издательство Кембриджского университета. (Оригинальная работа опубликована в 1785 году.)
  • Лоулесс В.Ф., Митту Р., Софге Д. и Рассел С. (ред.). (2017). Автономия и искусственный интеллект: угроза или спасение?. Чам: Springer International Publishing. Google ученый
  • Loosemore, RPW (2014). Независимая няня с капельницей дофамина: развенчание заблуждений в теории мотивации ИИ. В М. Васере (ред.), Реализация себя с помощью безопасных систем мотивации и самосовершенствования: документы весеннего симпозиума AAAI 2014 г. (стр. 31–36). Менло-Парк: AAAI Press. Google ученый
  • Минделл, Д.А. (2015). Наши роботы, мы сами: робототехника и мифы об автономии. Нью-Йорк: Викинг. Google ученый
  • Мюллер, VC (2012). Автономные когнитивные системы в реальных условиях: меньше контроля, больше гибкости и лучшее взаимодействие. Когнитивные вычисления,4(3), 212–215. СтатьяGoogle Scholar
  • Омохундро, С. М. (2008). Природа самосовершенствующегося искусственного интеллекта. https://selfawaresystems.files.wordpress.com/2008/01/nature_of_self_improving_ai.pdf. По состоянию на 18 сентября 2019 г.
  • Омохундро, С. М. (2012). Рациональный искусственный интеллект для общего блага. В AH Eden, JH Moor, JH Søraker и E. Steinhart (Eds.), Гипотезы сингулярности: научная и философская оценка (стр. 161–176). Берлин: Спрингер. ГлаваGoogle Scholar
  • Омохундро, С. М. (2016). Автономные технологии и высшее благо человека. В VC Müller (Ed.), Риски искусственного интеллекта (стр. 9–27). Бока-Ратон: CRC Press.Google ученый
  • Петерсен, С. (2017). Сверхразум как сверхэтический. В П. Лин, Р. Дженкинс и К. Эбни (ред.), Этика роботов 2.0: от автономных автомобилей к искусственному интеллекту (стр. 322–337). Оксфорд: Издательство Оксфордского университета.
  • Подшвадек, Ф. (2017). Мечтают ли андроиды о нормативном одобрении? Об ошибочности искусственных моральных агентов. Искусственный интеллект и право,25(3), 325–339. СтатьяGoogle Scholar
  • Редфилд, С.А., и Сето, М.Л. (2017). Проблемы проверки для автономных систем. В WF Lawless, R. Mittu, D. Sofge и S. Russell (Eds.), Автономия и искусственный интеллект: угроза или спасение? (стр. 103–127). Чам: Springer International Publishing. ГлаваGoogle Scholar
  • Рассел С.Дж. и Норвиг П. (2010). Искусственный интеллект: современный подход. Река Аппер-Сэдл: Прентис-холл. Google ученый
  • Соареш, Н. (2018). Проблема обучения ценности. В Р. В. Ямпольский (ред.), Безопасность и безопасность искусственного интеллекта (стр. 89–97). Бока-Ратон: CRC Press. Google ученый
  • Тегмарк, М. (2017). Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта. Нью-Йорк: Альфред А. Кнопф.
  • Тессье, К. (2017). Автономность роботов: некоторые технические проблемы. В WF Lawless, R. Mittu, D. Sofge и S. Russell (Eds.), Автономия и искусственный интеллект: угроза или спасение? (стр. 179–194). Чам: Springer International Publishing. ГлаваGoogle Scholar
  • Торрес, П. (2018). Сверхразум и будущее управления: о приоритизации проблемы контроля в конце истории. В Р. В. Ямпольский (ред.), Безопасность и безопасность искусственного интеллекта (стр. 357–374). Бока-Ратон: CRC Press. Google ученый
  • Тотшниг, В. (2019). Проблема сверхразума: политическая, а не технологическая. ИИ и общество,34(4), 907–920. СтатьяGoogle Scholar
  • Витковски, М., и Статис, К. (2004). Диалектическая архитектура для вычислительной автономии. В М. Никлс, М. Ровацос и Г. Вайс (ред.), Агенты и вычислительная автономия: потенциал, риски и решения (стр. 261–273). Берлин: Спрингер. ГлаваGoogle Scholar
  • Ямпольский Р.В. и Фокс Дж. (2012). Общий искусственный интеллект и ментальная модель человека. В AH Eden, JH Moor, JH Søraker и E. Steinhart (Eds.), Гипотезы сингулярности: научная и философская оценка (стр. 129–145). Берлин: Спрингер. ГлаваGoogle Scholar
  • Ямпольский Р.В. и Фокс Дж. (2013). Техника безопасности для искусственного общего интеллекта. Топой,32(2), 217–226. Google ученый
  • Юдковский, Э. (2001). Создание дружественного ИИ 1.0: анализ и разработка архитектуры доброжелательных целей. Сан-Франциско: Институт сингулярности.
  • Юдковский, Э. (2004). Когерентная экстраполированная воля. Сан-Франциско: Институт сингулярности. Google ученый
  • Юдковский, Э. (2008). Искусственный интеллект как положительный и отрицательный фактор глобального риска. В Н. Бостроме и М. М. Цирковича (ред.), Глобальные катастрофические риски (стр. 308–345). Оксфорд: Издательство Оксфордского университета. Google ученый
  • Юдковский, Э. (2011). Сложные системы ценностей в Дружественном ИИ. В J. Schmidhuber, KR Thórisson и M. Looks (Eds.), Искусственный общий интеллект (стр. 388–393). Берлин: Спрингер. ГлаваGoogle Scholar
  • Юдковский, Э. (2012). Дружелюбный искусственный интеллект. В AH Eden, JH Moor, JH Søraker и E. Steinhart (Eds.), Гипотезы сингулярности: научная и философская оценка (стр. 181–193). Берлин: Спрингер. ГлаваGoogle Scholar

Информация об авторе

Авторы и принадлежность

  1. Университет Диего Порталеса, Av. Ejército 260, Сантьяго, Чили Вольфхарт Тотшниг
  1. Вольфхарт Тотшниг
0 0 голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x