Большая идея: стоит ли нам беспокоиться об искусственном интеллекте?
С тех пор, как Гарри Каспаров проиграл свой второй шахматный матч против Deep Blue от IBM в 1997 году, человечество стало тревожным сигналом. Или так некоторые любят думать.Достижения в области искусственного интеллекта приведут — по некоторым оценкам, всего через несколько десятилетий — к созданию сверхразумных разумных машин. В фильмах от «Терминатора» до «Матрицы» эта перспектива изображалась довольно нежелательной. Но разве это нечто большее, чем очередной научно-фантастический «Проект Страх»?
Подпишитесь на нашу новостную рассылку Inside Saturday, чтобы получить эксклюзивный закулисный взгляд на создание самых важных статей журнала, а также список наших еженедельных событий.
Некоторую путаницу вызывают два совершенно разных употребления фразы «искусственный интеллект». Первый смысл, по сути, маркетинговый: все компьютерные программы, которые кажутся умными или полезными, как Siri, как говорят, используют «ИИ». Второй смысл, из которого первый заимствует свой блеск, указывает на будущее, которое еще не существует, на машины со сверхчеловеческим интеллектом. Это иногда называют AGI, для общего искусственного интеллекта.
Как мы отсюда доберемся, если захотим? Современный ИИ использует машинное обучение (или глубокое обучение): вместо того, чтобы напрямую программировать правила в машине, мы позволяем ей учиться самой. Таким образом, AlphaZero, играющая в шахматы организация, созданная британской фирмой Deepmind (теперь часть Google), провела миллионы тренировочных матчей сама с собой, а затем разгромила своего главного конкурента. Совсем недавно AlphaFold 2 от Deepmind был встречен как важная веха в биологической области «свертывания белков» или предсказания точных форм молекулярных структур, которые могут помочь в разработке лучших лекарств.
Машинное обучение работает, обучая машину на огромном количестве данных — изображениях для систем распознавания изображений или терабайтах прозы, взятых из Интернета, для ботов, которые создают полуправдоподобные эссе, такие как GPT2. Но наборы данных — это не просто нейтральные хранилища информации; они часто непредвиденным образом кодируют человеческие предубеждения.Недавно алгоритм новостной ленты Facebook спрашивал пользователей, которые смотрели новостное видео с чернокожими мужчинами, хотят ли они «продолжать смотреть видео о приматах». Так называемый «ИИ» уже используется в нескольких штатах США для прогнозирования повторного правонарушения кандидатов на условно-досрочное освобождение, при этом критики утверждают, что данные, на которых обучаются алгоритмы, отражают историческую предвзятость в работе полиции.
Ник Бостром предполагает, что настоящий ИИ может производить нервно-паралитический газ, чтобы уничтожать своих низших, мясных производителей.
Компьютеризированные системы (например, автопилоты самолетов) могут быть благом для людей, поэтому недостатки существующего «ИИ» сами по себе не являются аргументами против принципа разработки интеллектуальных систем, помогающих нам в таких областях, как медицинская диагностика. Более сложная социологическая проблема заключается в том, что принятие суждений, основанных на алгоритмах, является заманчивым способом переложить ответственность, чтобы никто не винил ответственных людей — будь то судьи, врачи или технические предприниматели. Заберут ли роботы все рабочие места? Сама эта подстава перевешивает ответственность, потому что настоящий вопрос заключается в том, уволят ли менеджеры всех людей.
Между тем, экзистенциальная проблема заключается в следующем: если компьютеры в конце концов приобретут некий вид самоосознающего интеллекта божественного уровня — что-то, что явно указано в заявлении о миссии Deepmind, например («наша долгосрочная цель — раскрыть интеллект» и создать AGI) — будут ли они по-прежнему так же стремиться быть полезными? Если мы построим что-то настолько мощное, нам лучше быть уверенными, что оно не обернется против нас. Для людей, серьезно обеспокоенных этим, аргумент состоит в том, что, поскольку это проблема потенциального уровня исчезновения, мы должны сейчас же выделить ресурсы для борьбы с ней. Философ Ник Бостром, возглавляющий Институт будущего человечества в Оксфордском университете, говорит, что люди, пытающиеся создать ИИ, «подобны детям, играющим с бомбой», и что перспектива машинного разума представляет большую угрозу для человечества, чем глобальная угроза. обогрев. Его книга 2014 года «Суперинтеллект» является основополагающей.Предполагается, что настоящий ИИ может тайно производить нервно-паралитический газ или нанороботов, чтобы уничтожать своих низших производителей, основанных на мясе. Или он может просто держать нас в планетарном зоопарке, пока занимается своими реальными делами.
ИИ не нужно быть активно злонамеренным, чтобы вызвать катастрофу. Это иллюстрируется знаменитой «задачей о скрепке» Бострома. Предположим, вы говорите ИИ сделать скрепки. Что может быть скучнее? К сожалению, вы забыли сказать, когда остановка изготовление скрепок. Таким образом, он превращает всю материю на Земле в скрепки, предварительно отключив свой выключатель, потому что если позволить себе отключиться, это помешает ему преследовать свою благородную цель — делать скрепки.