0 просмотров

Согласно исследованию, люди не смогут управлять сверхразумным искусственным интеллектом.

Значок электронной почты Конверт. Это указывает на возможность отправки электронной почты.

Значок «Поделиться» Изогнутая стрелка, указывающая вправо.
Значок Twitter Стилизованная птица с открытым ртом, чирикает.

Значок Twitter LinkedIn Слово «в».

Значок LinkedIn Fliboard Стилизованная буква F.

Flipboard Facebook Icon Буква F.

Значок электронной почты Facebook Конверт. Это указывает на возможность отправки электронной почты.

Значок ссылки по электронной почте Изображение звена цепи. Он символизирует URL-адрес ссылки на веб-сайт.

Египетский робот-тестировщик на коронавирус

  • Исследование Института Макса Планка предполагает, что люди не могут помешать ИИ делать собственный выбор.
  • Исследователи использовали «проблему остановки» Алана Тьюринга, чтобы проверить свою теорию.
  • Программирование сверхразумного ИИ с помощью «алгоритмов сдерживания» или правил было бы бесполезным.
  • Посетите домашнюю страницу Business Insider, чтобы узнать больше.

Подпишитесь на нашу рассылку, чтобы получать последние технические новости и новости, которые ежедневно доставляются на ваш почтовый ящик.
Загрузка Что-то загружается.
Спасибо за регистрацию!
Получайте доступ к своим любимым темам в персонализированной ленте, пока вы в пути. скачать приложение

По словам исследователей из Института людей и машин имени Макса Планка, теоретически невозможно предсказать действия искусственного интеллекта.

«Сверхразумная машина, управляющая миром, звучит как научная фантастика», — сказал Мануэль Себриан, соавтор исследования и руководитель исследовательской группы. «Но уже есть машины, которые выполняют определенные важные задачи независимо, без полного понимания программистами того, как они этому научились [так в оригинале]».

Статья в тему:  Какие этические теории применимы к искусственному интеллекту

Наше общество все больше и больше опирается на искусственный интеллект — от интерактивных собеседований при приеме на работу под управлением ИИ до создания музыки и даже мемов. ИИ уже во многом стал частью повседневной жизни.

Согласно исследованию исследовательской группы, опубликованному в Journal of Artificial Intelligence Research, чтобы предсказать действия ИИ, необходимо будет смоделировать именно этот сверхразум.

Вопрос о том, можно ли сдержать сверхразум, вряд ли нов.

Мануэль Альфонсека, соавтор исследования и руководитель исследовательской группы в Центре людей и машин Института Макса Планка, сказал, что все это сосредоточено вокруг «алгоритмов сдерживания», не отличающихся от Первого закона робототехники Азимова, согласно IEEE.

В 1942 году плодовитый писатель-фантаст Айзек Азимов изложил «Три закона робототехники» в своем рассказе «Обход» в рамках серии «Я, робот».

Согласно Азимову, робот не мог причинить вред человеку или допустить, чтобы ему причинили вред, он должен был подчиняться приказам, если такие приказы не противоречили первому закону, и должен был защищать себя, если это не противоречило первому или первому закону. второй закон.

Ученые исследовали два разных способа управления искусственным интеллектом, первый из которых заключался в ограничении доступа ИИ к Интернету.

Команда также изучила «проблему остановки» Алана Тьюринга и пришла к выводу, что «алгоритм сдерживания» для имитации поведения ИИ — где алгоритм «остановит» ИИ, если он нанесет вред людям, — будет просто неосуществим.

Статья в тему:  Искусственный интеллект: как алгоритмы делают системы умными

Проблема остановки Алана Тьюринга

Проблема остановки Алана Тьюринга исследует, можно ли остановить программу с помощью алгоритмов сдерживания или она будет продолжать работать бесконечно.

Машине задают различные вопросы, чтобы увидеть, придет ли она к выводам или попадет в порочный круг.

Этот тест можно применить и к менее сложным машинам, но с искусственным интеллектом это осложняется их способностью сохранять в памяти все компьютерные программы.

«Сверхразум представляет собой принципиально иную проблему, чем те, которые обычно изучаются под лозунгом «этики роботов», — говорят исследователи.

Если бы искусственный интеллект обучался с использованием законов робототехники, он мог бы прийти к независимым выводам, но это не значит, что его можно контролировать.

«Способность современных компьютеров адаптироваться с использованием сложных алгоритмов машинного обучения еще больше затрудняет предположения о возможном поведении сверхразумного ИИ», — сказал Ияд Рахван, другой исследователь в команде.

Рахван предупредил, что искусственный интеллект не следует создавать без необходимости, так как сложно отследить ход его потенциальной эволюции, и мы не сможем в дальнейшем ограничить его возможности.

Мы можем даже не знать, когда появятся сверхразумные машины, поскольку попытка установить, является ли устройство сверхразумным по сравнению с людьми, не отличается от проблем, возникающих при сдерживании.

При текущем развитии ИИ этот совет может быть просто принятием желаемого за действительное, поскольку компании от Baker McKenzie до технологических гигантов, таких как Google, Amazon и Apple, все еще находятся в процессе интеграции ИИ в свой бизнес, поэтому это может быть вопросом время, прежде чем у нас появится сверхразум.

Статья в тему:  Как искусственный интеллект и данные повышают ценность бизнеса

К сожалению, кажется, что роботизированные законы бессильны предотвратить потенциальное «восстание машин», и что разработка ИИ — это область, которую следует изучать с осторожностью.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector