0 просмотров

Как хакеры используют искусственный интеллект

ИИ зарекомендовал себя как технология, добавляющая ценность в мировой экономике. По мере того, как компании пытались адаптироваться к текущим событиям за последние несколько лет, некоторые из них нашли способы втиснуть пятидесятилетнюю цифровую трансформацию — в случае Frito-Lay — в гораздо более короткие сроки.Харрис Полл и Аппен обнаружили, что бюджеты ИИ увеличились на 55% во время глобальной пандемии. Как и любой инструмент, искусственный интеллект не имеет врожденной моральной ценности. Полезность или потенциальный вред ИИ сводится к тому, как система «обучается» и что люди в конечном итоге делают с ней. Некоторые попытки использовать ИИ — например, «предсказывать» преступление до того, как оно произойдет, — показывают, что модели, обученные на необъективных данных, склонны воспроизводить человеческие недостатки. До сих пор обучение ИИ с использованием данных американской системы правосудия приводило к трагически предвзятым рассуждениям ИИ. В других примерах люди выбирают более обдуманные способы использования разрушительного потенциала ИИ. Хакеры снова демонстрируют свои инновационные тенденции, используя искусственный интеллект для увеличения охвата, эффективности и прибыльности своих атак. И по мере того, как кибервойна становится все более и более распространенной по всему миру, мы, несомненно, увидим дальнейшее развитие приложений ИИ в хакерских атаках.

ИИ — это возможность и риск

Искусственный интеллект предоставляет множество возможностей для компаний, желающих улучшить стратегии прогнозирования, оптимизации бизнеса и удержания клиентов. Это также находка для тех, кто намерен поставить под угрозу цифровой суверенитет других. Вот несколько способов, которыми искусственный интеллект может быть подвержен незаметному вмешательству и более явным попыткам склонить его к агрессивным действиям.

Статья в тему:  Как искусственный интеллект задержал водителей в Колораде

1. Компрометация машинной логики

Главное преимущество ИИ для потребителей и коммерческих предприятий заключается в том, что он выполняет предсказуемые и повторяемые логические действия без вмешательства человека. Это также его самая большая слабость. Как и любая другая цифровая конструкция, ИИ может быть подвержен проникновению внешних сил. Хакеры, которые получают доступ и компрометируют логику машины, приводящую в действие ИИ, могут заставить его выполнять непредсказуемые или вредоносные действия. Например, ИИ, которому поручено отслеживать промышленное состояние, может выдавать ложные показания или не доставлять запросы на техническое обслуживание.Поскольку весь смысл инвестиций в ИИ заключается в устранении человеческого вмешательства и предугадывании результатов, вред инфраструктуре или качеству продукта, вызванный атакой такого рода, может быть незаметен до катастрофического сбоя.

2. Использование алгоритмов обратного проектирования

Еще один потенциальный путь для нанесения вреда, особенно когда речь идет об интеллектуальной собственности (ИС) и потребительских или коммерческих данных, — это понятие реверс-инжиниринга. Хакеры могут даже украсть сам код искусственного интеллекта. Имея достаточно времени, чтобы изучить, как это работает, они могли бы в конечном итоге раскрыть наборы данных, используемые в первую очередь для обучения ИИ. Это может спровоцировать несколько результатов, первый из которых — отравление ИИ. Другие примеры могут включать хакеров, использующих данные обучения ИИ для сбора компрометирующей информации о рынках, конкурентах, правительствах, поставщиках или обычных потребителях.

Статья в тему:  Кто придумал искусственный интеллект

3. Изучение намеченных целей

Наблюдение за целями, вероятно, является одним из наиболее тревожных последствий попадания ИИ в руки хакеров. Способность ИИ делать выводы о способностях человека, областях знаний, темпераменте и вероятности стать жертвой таргетинга, мошенничества или злоупотреблений вызывает особое беспокойство у некоторых экспертов по кибербезопасности. Искусственный интеллект может принимать и делать удивительно подробные выводы о людях, командах и группах на основе самых неожиданных точек данных. «Вовлеченный» или «отвлеченный» человек может быстро печатать, ерзать мышью или быстро перемещаться между вкладками браузера. Пользователь, который «запутался» или «колеблется», может сделать паузу, прежде чем нажимать на элементы страницы, или повторно посетить несколько сайтов. В умелых руках подобные подсказки помогают отделам кадров повысить вовлеченность сотрудников или помогают маркетинговым командам совершенствовать свои веб-сайты и воронки продаж. Для хакеров подобные сигналы могут привести к удивительно тонкому психологическому профилю намеченной цели.Киберпреступники могут определить на основе подсказок, невидимых для людей, какие люди могут быть уязвимы для фишинга, смишинга, программ-вымогателей, финансового мошенничества и других видов вреда. Это также может помочь злоумышленникам узнать, как лучше всего убедить свои цели в том, что их попытки мошенничества исходят из законных источников.

4. Исследование сетевых уязвимостей

Специалисты по кибербезопасности опубликовали данные о 20 175 известных уязвимостях безопасности в 2021 году. Это больше, чем в 2020 году, когда таких уязвимостей было 17 049. С каждым часом мир становится все более взаимосвязанным в цифровом плане — некоторые сказали бы, взаимозависимым. В настоящее время в мире существует ошеломляющее количество малых и промышленных сетей с миллиардами подключенных к сети устройств и еще больше в пути. В сети есть все, от датчиков контроля состояния до программного обеспечения для планирования предприятия. Искусственный интеллект обещает помочь командам по кибербезопасности быстро исследовать уязвимости в сети, программном и аппаратном обеспечении быстрее, чем люди в одиночку. Скорость и масштабы роста цифровой инфраструктуры Земли означают, что почти невозможно искать триллионы строк кода в поисках эксплойтов безопасности, которые нужно исправить. Все это должно происходить, пока эти системы находятся в сети из-за стоимости простоя. Если ИИ здесь является инструментом кибербезопасности, это также палка о двух концах. Хакеры могут использовать те же механизмы, что и «белая» ИТ-группа, для выполнения той же работы: исследовать сети, программное обеспечение и микропрограммы на наличие уязвимостей более эффективно, чем это могут сделать ИТ-специалисты.

Статья в тему:  Бернард Марр, как Amazon использует искусственный интеллект

Цифровая гонка вооружений

  • Хакеры могут скрыть код ИИ в безобидном приложении, которое выполняет вредоносное поведение, когда обнаруживает заранее определенный триггер или порог.
  • Вредоносные модели искусственного интеллекта могут использоваться для определения учетных данных или функций управления ИТ путем мониторинга входных биометрических данных, таких как отпечатки пальцев и распознавание голоса.
  • Даже если попытка кибератаки в конечном итоге потерпит неудачу, хакеры, оснащенные ИИ, могут использовать машинное обучение, чтобы определить, что пошло не так, и что они могут сделать по-другому в следующий раз.

Казалось, что всего одна удачная история о взломе джипа во время движения замедлит разработку автономных транспортных средств до минимума. Один громкий взлом, в котором ИИ действует как стержень, может вызвать аналогичную эрозию в общественном мнении. Некоторые опросы показывают, что средний американец уже очень сомневается в преимуществах ИИ.

Вездесущие вычисления сопряжены с рисками для кибербезопасности, и хакеры как в белой, так и в черной шляпе знают об этом. ИИ может помочь обеспечить безопасность нашей онлайн-жизни, но он также является эпицентром новой цифровой гонки вооружений.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x