8 просмотров

Почему бы нам не запретить искусственный интеллект

Джай Галлиот получил финансирование от Министерства обороны, но взгляды, выраженные здесь, принадлежат только ему и не отражают точку зрения Министерства или Содружества.

Партнеры

UNSW Sydney предоставляет финансирование в качестве члена The Conversation AU.

Открытое письмо, подписанное более чем 12 000 видных деятелей, призывающее к запрету роботов-убийц с искусственным интеллектом, связанное с аргументами в пользу запрета ООН на них, ошибочно и, возможно, даже безрассудно.

Подожди, заблуждаешься? Безрассудный? Позвольте мне предложить некоторый контекст.Я исследователь робототехники и провел большую часть своей карьеры, читая и пишу о военных роботах, разжигая очень пугающую кампанию, против которой я сейчас яростно выступаю.

Я даже был одним из сотен людей, которые в первые дни дебатов поддержали Международный комитет по контролю над роботизированным оружием (ICRAC) и Кампанию по борьбе с роботами-убийцами.

Но я передумал.

Почему такое радикальное изменение мнения? Короче, я понял следующее.

Человеческая связь

Подписанты — просто паникеры, которые пытаются запретить автономное оружие, которое «выбирает и поражает цели без вмешательства человека», которое, по их словам, появится на поле боя рядом с вами в течение «годов, а не десятилетий».

Но, если подумать критически, ни один робот не может по-настоящему убить без вмешательства человека. Да, роботы, вероятно, уже способны убивать людей, используя сложные механизмы, которые напоминать те, которые используются людьми, а это означает, что людям не обязательно следить за смертоносной системой, пока она используется. Но это не значит, что в петле нет человека.

Мы можем моделировать мозг, человеческое обучение и принятие решений до такой степени, что эти системы кажутся способными генерировать творческие решения для убийства людей, но люди очень активно участвуют в этом процессе.

Статья в тему:  Какие проблемы у искусственного интеллекта

Действительно, было бы нелепо упускать из виду роль программистов, ученых-когнитивистов, инженеров и других лиц, участвующих в создании этих автономных систем. И даже если бы мы это сделали, что насчет командира, вооруженных сил и правительства, принявших решение использовать систему? Должны ли мы их тоже игнорировать?

У нас уже есть автоматические машины для убийства

У нас уже есть оружие, на которое ищется запрет.

ВМС Австралии, например, уже много лет успешно развертывают высокоавтоматизированное оружие в виде систем ближнего боя (CIWS).Эти системы, по сути, представляют собой орудия, которые могут производить тысячи выстрелов в минуту либо автономно с помощью системы с компьютерным управлением, либо с ручным управлением, и предназначены для обеспечения надводных кораблей последней защитой от противокорабельных ракет.

Phalanx — лишь одна из нескольких систем ближнего боя, используемых ВМС Австралии.

При автономном использовании CIWS выполняют функции, обычно выполняемые другими системами и людьми, включая поиск, обнаружение, оценку угроз, обнаружение, наведение и уничтожение целей.

Эта система подпадала бы под определение, данное в открытом письме, если бы мы следовали логике подписавших. Но вы не слышали, чтобы кто-то возражал против этих систем. Почему? Потому что они используются далеко в море и только в тех случаях, когда объект приближается враждебно, обычно снижаясь в направлении корабля на большой скорости.

То есть они используются только в условиях и ситуациях, когда риск убийства невинного гражданского лица практически нулевой, намного меньше, чем в обычном бою.

Статья в тему:  Как купить искусственный интеллект

Так почему же мы не можем сосредоточиться на существующих законах, которые предусматривают их применение в самых частных и узких обстоятельствах?

Настоящий страх — это несуществующие мыслящие роботы.

Кажется, что настоящий Беспокойство, которое побудило многих из 12 000 с лишним человек подписать петицию против роботов-убийц, связано не с машинами, которые выбирают цели и поражают их без вмешательства человека, а скорее с развитием разумных роботов.

Учитывая достижения в области технологий за последнее столетие, возникает соблазн опасаться мыслящих роботов. Менее чем за 70 лет мы совершили скачок от первого полета с двигателем до космического полета, так почему же мы не можем создать по-настоящему интеллектуального робота (или просто такого, который слишком автономен, чтобы возлагать ответственность на человека, но недостаточно автономен, чтобы возлагать ответственность на самого робота? ) если у нас есть немного больше времени?

Есть ряд веских причин, почему этого никогда не произойдет.Одним из объяснений может быть то, что у нас есть душа, которую машина просто не может воспроизвести. Хотя это, как правило, фаворит духовных типов, есть и другие естественные объяснения. Например, есть логический аргумент, предполагающий, что определенные мозговые процессы не являются вычислительными или алгоритмическими по своей природе и, следовательно, их невозможно воспроизвести.

Как только люди поймут, что любая система, которую мы можем себе представить сегодня, независимо от того, способна ли она к обучению или к очень сложной работе, является продуктом программирования и программ искусственного интеллекта, восходящих к ее программистам и проектировщикам систем, и что мы никогда не есть по-настоящему мыслящие роботы, должно стать ясно, что аргумент в пользу полного запрета роботов-убийц покоится на шаткой почве.

Статья в тему:  "где я могу использовать искусственный интеллект"

Кто играет по правилам?

Запреты ООН также практически бесполезны. Просто спросите любого, кто потерял ногу из-за недавно заложенной противопехотной мины. Печальный факт заключается в том, что «плохие парни» не играют по правилам.

Теперь, когда вы понимаете, почему я передумала, я предлагаю подписавшимся под петицией о роботах-убийцах отметить эти моменты, пересмотреть свою позицию и присоединиться ко мне на «темной стороне» в отстаивании более эффективного и практического регулирования того, что на самом деле просто крайне нежелательно. автоматизированные системы.

  • Искусственный интеллект (ИИ)
  • Робототехника
  • Смертоносные автономные роботы
  • Роботы
  • Летальные автономные системы вооружения
  • Роботы-убийцы
голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x