Опасен ли искусственный интеллект? 6 рисков ИИ, о которых должен знать каждый
Некоторые известные личности, такие как легендарный физик Стивен Хокинг и лидер и новатор Tesla и SpaceX Илон Маск, предполагают, что ИИ потенциально может быть очень опасным; Маск в какой-то момент сравнил ИИ с опасностями диктатора Северной Кореи. Соучредитель Microsoft Билл Гейтс также считает, что есть основания для осторожности, но что хорошее может перевесить плохое, если им правильно управлять. Поскольку недавние разработки сделали сверхинтеллектуальные машины возможными гораздо раньше, чем предполагалось изначально, настало время определить, какие опасности представляет искусственный интеллект.
Что такое прикладной и обобщенный искусственный интеллект?
По сути, искусственный интеллект — это создание машин, которые могут мыслить и действовать разумно, и включает в себя такие инструменты, как поисковые алгоритмы Google или машины, которые делают возможными самоуправляемые автомобили. В то время как большинство современных приложений используются для положительного воздействия на человечество, любой мощный инструмент может быть использован во вредных целях, когда он попадает не в те руки. Сегодня мы достигли прикладного ИИ — ИИ, который выполняет узкую задачу, такую как распознавание лиц, обработка естественного языка или поиск в Интернете. В конечном счете, специалисты в этой области работают над созданием более универсального ИИ, в котором системы могут справиться с любой задачей, которую могут выполнить разумные люди, и, скорее всего, превзойдут нас в каждой из них.
В комментарии Илон Маск написал: «Темпы прогресса в области искусственного интеллекта (я не имею в виду узкий ИИ) невероятно высоки. Если вы не имеете прямого отношения к таким группам, как Deepmind, вы не представляете, насколько быстро они растут темпами, близкими к экспоненциальным. Риск того, что произойдет что-то серьезно опасное, существует в течение пяти лет. Максимум 10 лет».
Действительно, существует множество приложений ИИ, которые делают нашу повседневную жизнь более удобной и эффективной. Именно приложения ИИ играют решающую роль в обеспечении безопасности, что беспокоило Маска, Хокинга и других, когда они заявляли о своих сомнениях по поводу технологии. Например, если ИИ отвечает за обеспечение работы нашей энергосистемы и наши худшие опасения оправдаются, а система выйдет из-под контроля или будет взломана врагом, это может привести к огромному ущербу.
Чем может быть опасен искусственный интеллект?
Хотя мы еще не создали сверхинтеллектуальные машины, юридические, политические, социальные, финансовые и нормативные вопросы настолько сложны и масштабны, что необходимо взглянуть на них сейчас, чтобы мы были готовы безопасно работать среди них, когда приходит время. Помимо подготовки к будущему со сверхинтеллектуальными машинами сейчас, искусственный интеллект уже может представлять опасность в его нынешнем виде. Давайте рассмотрим некоторые ключевые риски, связанные с ИИ.
Автономное вооружение
ИИ, запрограммированный делать что-то опасное, как в случае с автономным оружием, запрограммированным на убийство, — это один из способов, которым ИИ может представлять опасность. Можно даже ожидать, что гонка ядерных вооружений сменится глобальной гонкой автономных вооружений. Президент России Владимир Путин сказал: «Искусственный интеллект — это будущее не только России, но и всего человечества. Он несет в себе огромные возможности, но также и угрозы, которые трудно предсказать. Кто станет лидером в этой сфере, тот станет правителем мира».
Помимо беспокойства о том, что автономное оружие может обрести «собственный разум», более насущной проблемой являются опасности, которые автономное оружие может представлять для человека или правительства, которые не ценят человеческую жизнь. После развертывания их, вероятно, будет трудно демонтировать или уничтожить.
Социальные манипуляции
Социальные сети благодаря своим автономным алгоритмам очень эффективны в целевом маркетинге.Они знают, кто мы, что нам нравится, и невероятно хорошо угадывают, что мы думаем. Расследование все еще продолжается, чтобы определить вину Cambridge Analytica и других, связанных с фирмой, которые использовали данные 50 миллионов пользователей Facebook, чтобы попытаться повлиять на исход президентских выборов в США в 2016 году и референдума Великобритании по Brexit, но если обвинения верны, это иллюстрирует возможности ИИ для социальных манипуляций. Распространяя пропаганду среди лиц, идентифицированных с помощью алгоритмов и личных данных, ИИ может нацеливаться на них и распространять любую информацию, которую они хотят, в любом формате, который они сочтут наиболее убедительным — фактами или вымыслом.
Вторжение в частную жизнь и социальные оценки
Теперь можно отслеживать и анализировать каждый шаг человека в Интернете, а также время, когда он занимается своими повседневными делами. Камеры почти везде, а алгоритмы распознавания лиц знают, кто вы. На самом деле, это тип информации, которая будет питать систему социального кредита Китая, которая, как ожидается, будет давать каждому из его 1,4 миллиарда граждан личный балл, основанный на том, как они ведут себя — например, ходят ли они неположенным дорогам, курят ли они в зоны для некурящих и сколько времени они проводят за видеоиграми. Когда Большой Брат наблюдает за вами, а затем принимает решения на основе этой информации, это не только вторжение в частную жизнь, но и быстро может превратиться в социальное угнетение.
Несоответствие между нашими целями и целями машины.
Частью того, что люди ценят в машинах с искусственным интеллектом, является их эффективность и действенность. Но если у нас нет четких целей, которые мы ставим перед машинами ИИ, может быть опасно, если машина не вооружена теми же целями, что и мы. Например, команда «Как можно быстрее доставь меня в аэропорт» может иметь ужасные последствия.Не уточняя, что правила дорожного движения должны соблюдаться, потому что мы ценим человеческую жизнь, машина могла бы вполне эффективно выполнить свою задачу — как можно быстрее доставить вас в аэропорт и сделать буквально то, что вы просите, но оставить за собой шлейф несчастных случаев.
Дискриминация
Поскольку машины могут собирать, отслеживать и анализировать так много о вас, эти машины вполне могут использовать эту информацию против вас. Нетрудно представить страховую компанию, которая скажет вам, что вы не подлежите страхованию, основываясь на том, сколько раз вы были засняты на камеру во время разговора по телефону. Работодатель может отказать в предложении о работе на основании вашего «социального кредитного рейтинга».
Любая мощная технология может быть использована не по назначению. Сегодня искусственный интеллект используется во многих благих целях, в том числе для того, чтобы помочь нам ставить более точные медицинские диагнозы, находить новые способы лечения рака и делать наши автомобили более безопасными. К сожалению, по мере расширения наших возможностей ИИ мы также увидим его использование в опасных или злонамеренных целях. Поскольку технология ИИ развивается так быстро, для нас жизненно важно начать обсуждение наилучших способов позитивного развития ИИ при минимизации его разрушительного потенциала.