0 просмотров

Обеспечение безопасности систем данных после появления мошеннического ИИ

Атаки на искусственный интеллект (ИИ) отличаются от типичных угроз кибербезопасности, с которыми мы сталкиваемся ежедневно, но это не значит, что они случаются совсем редко. Хакерство продолжает становиться все более изощренным и превратилось из простого сокрытия ошибок в коде. Без надлежащей защиты хакеры могут вмешиваться в эти системы и изменять их поведение, чтобы «оружить» ИИ. Это дает хакерам идеальный способ получить конфиденциальные данные или повредить системы, предназначенные для аутентификации и проверки пользователей, без простого исправления в случае успеха атаки.

Когда речь идет о безопасности, важно не только рассмотреть аспекты мошеннического ИИ, но и то, как можно защитить наборы данных системы. Чтобы успешно защититься от атаки, мы должны рассмотреть четыре интерактивных элемента машинного обучения и то, как на каждый из них может повлиять вредоносная атака.

Защита ключевых элементов

Машинное обучение обычно состоит из четырех элементов. Первым элементом для рассмотрения являются наборы данных — данные предоставляются машине для функционирования, обучения и принятия решения на основе предоставленной информации. В этом случае данные могут быть любым обработанным фактом, значением, звуком, изображением или текстом, которые могут быть интерпретированы и проанализированы ИИ. С самого начала пользователи должны убедиться, что данные, предоставляемые машине, состоят из значимой и точной информации.

Статья в тему:  Бабушка спросила, что такое искусственный интеллект?

Алгоритмы — еще один фактор, который следует учитывать. Они определяются как математические или логические задачи, которые могут передавать данные в модель. Для защищенной системы любой используемый алгоритм должен быть адаптирован к уникальной проблеме, которую необходимо решить, чтобы он представлял конкретную модель и характер предоставляемых данных.

Еще одним элементом машинного обучения являются модели — вычислительные представления реального процесса.Пользователи, обучающие модели, смогут делать прогнозы, отражающие реальную жизнь. Затем данные, включенные в модель, должны со временем повышать уровень точности процесса. Крайне важно, чтобы модель была снабжена надежными данными, чтобы избежать отклонения прогнозов модели машинного обучения.

И последнее, но не менее важное: обучение — это процесс, который позволяет моделям машинного обучения выявлять шаблоны для принятия решений. Чтобы смягчить повреждение этого элемента, любое применяемое обучение должно быть предоставлено надежным источником, чтобы гарантировать, что контролируемое, неконтролируемое обучение и обучение с подкреплением не вынуждают модель отклоняться от ее точного извлечения признаков и прогнозов.

Использование «надежных» принципов

Модель Trusted Computing, подобная модели, разработанной Trusted Computing Group (TCG), может быть легко применена ко всем четырем элементам ИИ, чтобы полностью обезопасить мошеннический ИИ. Учитывая элемент набора данных ИИ, доверенный платформенный модуль (TPM) можно использовать для подписи и проверки того, что данные получены из надежного источника.

Аппаратный корень доверия, такой как механизм составления идентификаторов устройств (DICE), может гарантировать, что датчики и другие подключенные устройства поддерживают высокий уровень целостности и продолжают предоставлять точные данные. Каждый загрузочный уровень в системе получает секрет DICE, который объединяет предыдущий секрет на предыдущем уровне с измерением текущего. Это гарантирует, что в случае успешного эксплойта измерения и секреты открытого уровня будут другими, защищая данные и защищая себя от любого раскрытия данных. DICE также автоматически меняет ключ устройства, если в его прошивке обнаруживается ошибка. Надежная аттестация, предлагаемая аппаратным обеспечением, делает его отличным инструментом для обнаружения любых уязвимостей в любых необходимых обновлениях.

Статья в тему:  Что делает Корнелл хорошей школой искусственного интеллекта

Доверенный платформенный модуль также может предоставлять механизмы, которые защищают, обнаруживают, подтверждают и восстанавливают любые попытки изменить код злонамеренно или иным образом.Примером этого может быть запрет на изменение показаний критической температуры. Это особенно важно, когда речь идет о защите алгоритмов, используемых в системе ИИ. Кроме того, любые отклонения от модели, если будут предоставлены неверные или неточные данные, можно легко предотвратить, применяя надежные принципы, касающиеся киберустойчивости, сетевой безопасности, аттестации датчиков и идентификации. Компании также могут обеспечить безопасность обучения машинному обучению, следя за тем, чтобы лица, предоставляющие его, придерживались стандартов Trusted Computing.

Защищенная система

Крайне важно, чтобы в связи с растущими атаками на ИИ предприятия продолжали изучать угрозы, с которыми они могут столкнуться, выявляли уязвимости в своих существующих системах и принимали превентивные меры, пока не стало слишком поздно. Использование стандартов Trusted Computing и аппаратного обеспечения, такого как DICE, может помочь обеспечить надежный уровень защиты от злонамеренных намерений, защитить конфиденциальные данные и предотвратить любой серьезный ущерб, будь то финансовый или репутационный.

Написано Торстеном Стремлау, сопредседателем Маркетинговая рабочая группа TCG

Связанный:

Раскрытие потенциала ИИ для увеличения удержания клиентов — Зак Спракетт, директор по продуктам SugarCRM, обсуждает, как раскрытие потенциала ИИ может стать ключом к увеличению удержания клиентов.

День конфиденциальности данных 2022: обеспечение безопасности данных в организации. Поскольку сегодня День конфиденциальности данных, мы изучаем, что организациям необходимо знать о обеспечении безопасности данных, находящихся в их распоряжении.

Метки: А.И. Искусственный интеллект , Безопасность данных , Машинное обучение

Статья в тему:  Насколько мы близки к истинному искусственному общему интеллекту

Выбор редактора

Выбор редакции состоит из лучших статей, написанных третьими лицами и отобранных нашим редактором Майклом Бакстером. Вы можете связаться с ним по адресу michael.baxter на bonhillplc.com.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector