Объяснимый ИИ
Узнайте об объяснимом ИИ. Повышение интерпретируемости ИИ. Оценивайте и снижайте риски ИИ. Развертывайте ИИ с доверием и уверенностью.
- 01 Преимущества
- 02 Тематические исследования
- 03 Возможности
- 04 Подход IBM
- 05 IBM Cloud Pak для данных
- 06 Погрузитесь глубже
- 01 Преимущества
- 02 Тематические исследования
- 03 Возможности
- 04 Подход IBM
- 05 IBM Cloud Pak для данных
- 06 Погрузитесь глубже
Узнайте, как объяснимый ИИ приносит пользу производственному ИИ
Что такое объяснимый ИИ?
Объяснимый искусственный интеллект (XAI) — это набор процессов и методов, которые позволяют пользователям понимать и доверять результатам и выводам, созданным алгоритмами машинного обучения. Объяснимый ИИ используется для описания модели ИИ, ее ожидаемого воздействия и потенциальных предубеждений. Это помогает охарактеризовать точность модели, справедливость, прозрачность и результаты при принятии решений на основе ИИ. Объяснимый ИИ имеет решающее значение для организации в построении доверия и уверенности при внедрении моделей ИИ в производство. Объяснимость ИИ также помогает организации ответственно подходить к разработке ИИ.
По мере того, как ИИ становится все более продвинутым, людям становится все труднее понять и проследить, как алгоритм пришел к результату. Весь процесс вычислений превращается в то, что обычно называют «черным ящиком», который невозможно интерпретировать. Эти модели черного ящика создаются непосредственно из данных. И даже инженеры или специалисты по данным, которые создают алгоритм, не могут понять или объясните, что именно происходит внутри них или как алгоритм ИИ пришел к конкретному результату.
Есть много преимуществ в понимании того, как система с поддержкой ИИ привела к определенному результату. Объяснимость может помочь разработчикам убедиться в том, что система работает должным образом, может быть необходимо соответствовать нормативным стандартам, или может быть важно позволить тем, кого затрагивает решение, оспорить или изменить этот результат¹.
Почему объяснимый ИИ имеет значение?
Для организации крайне важно иметь полное представление о процессах принятия решений ИИ с модельным мониторингом и подотчетностью ИИ, а не доверять им слепо. Объяснимый ИИ может помочь людям понять и объяснить алгоритмы машинного обучения (МО), глубокого обучения и нейронных сетей.
Модели машинного обучения часто представляют как черные ящики, которые невозможно интерпретировать². Нейронные сети, используемые в глубоком обучении, являются одними из самых сложных для понимания человеком. Предвзятость, часто основанная на расе, поле, возрасте или местоположении, была давним риском при обучении моделей ИИ. Кроме того, производительность модели ИИ может дрейфовать или ухудшаться, поскольку производственные данные отличаются от обучающих данных. Это делает крайне важным для бизнеса постоянный мониторинг и управление моделями для обеспечения объяснимости ИИ при измерении влияния использования таких алгоритмов на бизнес. Объяснимый ИИ также помогает повысить доверие конечных пользователей, возможность аудита моделей и продуктивное использование ИИ. Это также снижает нормативные, юридические, безопасность и репутационные риски производственного ИИ.
Объяснимый ИИ — одно из ключевых требований для внедрения ответственного ИИ, методологии крупномасштабного внедрения методов ИИ в реальных организациях с соблюдением справедливости, объяснимости модели и подотчетности.³ Чтобы помочь ответственному внедрению ИИ, организациям необходимо внедрить этические принципы в ИИ. приложений и процессов путем создания систем ИИ на основе доверия и прозрачности.
Непрерывная оценка модели
С помощью объяснимого ИИ бизнес может устранять неполадки и повышать производительность модели, помогая заинтересованным сторонам понять поведение моделей ИИ. Изучение поведения модели путем отслеживания информации о статусе развертывания, объективности, качестве и дрейфе модели имеет важное значение для масштабирования ИИ. Непрерывная оценка модели позволяет бизнесу сравнивать предсказания модели, количественно оценивать риск модели и оптимизировать производительность модели. Отображение положительных и отрицательных значений в поведении модели с данными, используемыми для создания объяснений, ускоряет оценку модели. Платформа данных и искусственного интеллекта может генерировать атрибуции функций для прогнозов модели и дает командам возможность визуально исследовать поведение модели с помощью интерактивных диаграмм и экспортируемых документов.
Ценность объяснимого ИИ
Из исследования Forrester, посвященного объяснимому искусственному интеллекту и мониторингу моделей в IBM Cloud Pak for Data
от 4,1 до 15,6 млн долларов США
Увеличенный диапазон прибыли
от 35% до 50%
Уменьшение усилий по мониторингу модели
Между 3x и 8x
Увеличение количества моделей в производстве
от 15% до 30%
Повышенная точность моделей
Объяснимые преимущества ИИ
Внедряйте ИИ с доверием и уверенностью
Повысьте доверие к производственному ИИ. Быстро запускайте свои модели ИИ в производство. Обеспечьте интерпретируемость и объяснимость моделей ИИ. Упростите процесс оценки модели, повысив ее прозрачность и прослеживаемость.
Ускорьте получение результатов ИИ
Систематически отслеживайте модели и управляйте ими, чтобы оптимизировать бизнес-результаты. Постоянно оценивайте и улучшайте производительность модели. Точная настройка усилий по разработке моделей на основе непрерывной оценки.
Снижение рисков и затрат на управление моделью
Сделайте свои модели ИИ объяснимыми и прозрачными. Управляйте нормативными требованиями, соблюдением требований, рисками и другими требованиями. Сведите к минимуму накладные расходы на ручную проверку и дорогостоящие ошибки. Снизить риск непреднамеренной предвзятости.
Объяснимые тематические исследования ИИ
Highmark Health: сокращение времени сборки модели с 1 года до 6 месяцев
Узнайте, как Highmark Health использует данные моделей для прогнозирования пациентов в группе риска, поддержки профилактических клинических вмешательств и информационно-разъяснительной работы.
Lufthansa: масштабирование ИИ с доверием и прозрачностью
Узнайте, чего Lufthansa добилась в повышении качества обслуживания клиентов и повышении эффективности авиакомпаний благодаря автоматизации жизненного цикла ИИ, а также уменьшению отклонения и предвзятости.
KPMG: Управление ответственным ИИ
Посмотрите, как КПМГ использует IBM, чтобы обеспечить доверие, прозрачность и объяснимость производственного ИИ. (02:05)
Смотреть видео
Объяснимые возможности ИИ
Отслеживайте и объясняйте модели
Подготовьте и настройте мониторы моделей. Предоставьте входные данные модели, включая данные обучения, метки данных обучения и функции обучения. Выберите свои данные и модели для развертывания.
Отслеживайте и визуализируйте информацию о моделях
Выберите метрики модели, такие как честность, качество, дрейф, риск и производительность. Изучите варианты устранения предвзятости.Создавайте предварительные и рабочие репозитории и сравнивайте модели.
Настройка мониторов конечных точек
Используйте конечную точку ведения журнала полезной нагрузки. Соберите запросы на оценку или оцените качество моделей. Создайте фрагмент кода для полезных данных и конечных точек обратной связи, чтобы интегрировать их в свое приложение.
Подход IBM к объяснимому ИИ
На протяжении более 100 лет IBM постоянно стремилась к инновациям, способным принести пользу всем, а не только избранным. Эта философия применима и к ИИ: мы стремимся создавать и предлагать надежные технологии, которые могут дополнять, а не заменять процесс принятия решений человеком.
Несмотря на то, что ИИ обещает предоставить ценную информацию и шаблоны для множества приложений, широкое внедрение систем ИИ будет в значительной степени зависеть от способности людей доверять результатам ИИ. Доверие людей к технологиям основано на нашем понимании того, как они работают, и нашей оценке их безопасности и надежности. Это делает объяснимый ИИ решающим. Подход IBM к объяснимому ИИ заключается в том, чтобы сделать ИИ надежным и справедливым, обеспечить его учет и гарантировать, что он не причинит вреда.
В основе наших инноваций IBM Research разрабатывает различные подходы к тому, как добиться справедливости, надежности, объяснимости, подотчетности и согласования ценностей, а также как интегрировать их на протяжении всего жизненного цикла приложения ИИ. Объяснимые платформы ИИ и наборы инструментов от IBM Research интегрированы в платформу IBM Cloud Pak for Data, чтобы предприятия могли использовать преимущества нашей новейшей технологии ИИ управляемым, безопасным и масштабируемым образом.
Пять соображений для объяснимого ИИ
Пять соображений для объяснимого ИИ
Чтобы добиться желаемых результатов с помощью объяснимого ИИ, учтите следующее.
Справедливость и беспристрастность: Управляйте и контролируйте справедливость. Сканируйте свое развертывание на наличие потенциальных предубеждений.
Уменьшение дрейфа модели: Проанализируйте свою модель и дайте рекомендации, основанные на наиболее логичном результате.Оповещение, когда модели отклоняются от намеченных результатов.
Модель управления рисками: Количественная оценка и снижение риска модели. Получайте оповещения, когда модель работает неадекватно. Поймите, что произошло, когда отклонения сохраняются.
Автоматизация жизненного цикла: Создавайте, запускайте и управляйте моделями в рамках интегрированных сервисов данных и искусственного интеллекта. Унифицируйте инструменты и процессы на платформе для мониторинга моделей и обмена результатами. Объясните зависимости моделей машинного обучения.
Мультиоблачная готовность: Развертывайте проекты ИИ в гибридных облаках, включая публичные облака, частные облака и локальные среды. Повышайте доверие и уверенность с помощью объяснимого ИИ.
Улучшите объяснимость ИИ с помощью IBM Cloud Pak for Data
Платформа IBM Cloud Pak® for Data предоставляет данные и сервисы ИИ в единой среде, чтобы бизнес мог оценивать влияние и взаимосвязь данных и моделей для повышения объяснимости ИИ. Это также помогает бизнес-модели получить представление о развертывании, справедливости, качестве и рисках. Решение помогает объяснить транзакции ИИ, категориальные модели, модели изображений и неструктурированные текстовые модели с помощью таких инструментов, как контрастные объяснения и локальные интерпретируемые модельно-независимые объяснения (LIME). Сделать ИИ объяснимым и прозрачным за счет автоматизации жизненного цикла ИИ в современной информационной архитектуре жизненно важно для успеха производства ИИ.
Читать далее
Узнайте больше об объяснимом ИИ
Как работает объяснимый ИИ?
Посмотреть Как работает объяснимый ИИ?
С помощью объяснимого искусственного интеллекта, а также интерпретируемого машинного обучения организации могут получить доступ к лежащим в основе процесса принятия решений технологиям искусственного интеллекта и получить возможность вносить коррективы. Объяснимый ИИ может улучшить взаимодействие с пользователем продукта или услуги, помогая конечному пользователю поверить в то, что ИИ принимает правильные решения. Когда системы ИИ дают достаточно уверенности в решении, чтобы ему можно было доверять, и как система ИИ может исправить возникающие ошибки?⁴
По мере того, как ИИ становится все более продвинутым, процессы машинного обучения все еще необходимо понимать и контролировать, чтобы обеспечить точность результатов модели ИИ. Давайте рассмотрим разницу между ИИ и XAI, методы и приемы, используемые для преобразования ИИ в XAI, а также разницу между интерпретацией и объяснением процессов ИИ.
Сравнение ИИ и XAI
Посмотреть сравнение между AI и XAI
В чем именно разница между «обычным» ИИ и объяснимым ИИ? XAI реализует специальные приемы и методы, чтобы каждое решение, принятое в процессе машинного обучения, можно было отследить и объяснить. ИИ, с другой стороны, часто достигает результата, используя алгоритм машинного обучения, но архитекторы систем ИИ не до конца понимают, как алгоритм достиг такого результата. Это затрудняет проверку точности и приводит к потере контроля, подотчетности и возможности аудита.
Объяснимые методы ИИ
Посмотреть объяснимые методы искусственного интеллекта
Настройка методов XAI состоит из трех основных методов. Точность прогнозирования и отслеживаемость соответствуют технологическим требованиям, а понимание решений отвечает потребностям человека. Объяснимый ИИ — особенно объяснимое машинное обучение — будет иметь важное значение, если военные бойцы будущего должны понимать, должным образом доверять и эффективно управлять новым поколением машин-партнеров с искусственным интеллектом.⁵
Точность прогноза
Точность является ключевым компонентом успеха использования ИИ в повседневной работе. Запустив моделирование и сравнив выходные данные XAI с результатами в наборе обучающих данных, можно определить точность прогноза. Наиболее популярным методом, используемым для этого, является Local Interpretable Model-Agnostic Explanations (LIME), который объясняет предсказание классификаторов алгоритмом ML.
Отслеживаемость
Прослеживаемость — еще один ключевой метод выполнения XAI. Это достигается, например, за счет ограничения способов принятия решений и установления более узкой области применения правил и функций ML.Примером метода прослеживаемости XAI является DeepLIFT (Deep Learning Important FeaTures), который сравнивает активацию каждого нейрона с его эталонным нейроном и показывает прослеживаемую связь между каждым активированным нейроном и даже показывает зависимости между ними.
Понимание решения
Это человеческий фактор. Многие люди не доверяют ИИ, но чтобы работать с ним эффективно, им нужно научиться доверять ему. Это достигается путем обучения команды, работающей с ИИ, чтобы они могли понять, как и почему ИИ принимает решения.
Объяснимость против интерпретируемости в ИИ
Сравните объяснимость и интерпретируемость в ИИ
Интерпретируемость — это степень, в которой наблюдатель может понять причину решения. Это вероятность успеха, которую люди могут предсказать для результата вывода ИИ, в то время как объяснимость идет еще дальше и смотрит на то, как ИИ пришел к результату.
Как объяснимый ИИ связан с ответственным ИИ?
Посмотреть Как объяснимый ИИ связан с ответственным ИИ?
Объяснимый ИИ и ответственный ИИ имеют схожие цели, но разные подходы. Вот основные различия между объяснимым и ответственным ИИ:
- Объяснимый ИИ смотрит на результаты ИИ после того, как результаты вычислены.
- Ответственный ИИ смотрит на ИИ на этапах планирования, чтобы сделать алгоритм ИИ ответственным до того, как результаты будут вычислены.
- Объяснимый и ответственный ИИ может работать вместе, чтобы сделать ИИ лучше.
Чтобы узнать больше об объяснимом искусственном интеллекте, подпишитесь на IBMid и начните пробную версию IBM Cloud Pak for Data уже сегодня.
Как реализовать объяснимый ИИ
Посмотреть Как реализовать объяснимый ИИ
Используйте эти ресурсы, чтобы узнать больше о том, как реализовать объяснимый ИИ.
Онлайн-семинар: Как управлять моделями и отслеживать их
Узнайте, что вы можете сделать, когда ваши модели не работают.
Посмотреть вебинар (ссылка не принадлежит IBM) →
Путь обучения: управление ИИ с доверием
Узнайте, как отслеживать и измерять результаты ИИ на протяжении всего его жизненного цикла, а также адаптировать и управлять ИИ к изменяющимся условиям бизнеса.
См. учебник →
Практическое занятие: Мониторинг моделей машинного обучения
Изучите пошаговые процессы оценки моделей на объективность, точность и объяснимость.
Посмотреть лабораторию →
Объяснимые варианты использования ИИ
Здравоохранение
Ускорьте диагностику, анализ изображений, оптимизацию ресурсов и медицинскую диагностику. Повысьте прозрачность и прослеживаемость при принятии решений по уходу за пациентами. Оптимизируйте процесс утверждения фармацевтических препаратов с помощью объяснимого искусственного интеллекта.
Финансовые услуги
Улучшите качество обслуживания клиентов с помощью прозрачного процесса утверждения кредита и кредита. Ускорьте оценку кредитного риска, управления капиталом и финансовых преступлений. Ускорьте решение потенциальных жалоб и проблем. Повысьте доверие к ценообразованию, рекомендациям по продуктам и инвестиционным услугам.
уголовное правосудие
Оптимизация процессов прогнозирования и оценки рисков. Ускорьте принятие решений, используя объяснимый ИИ для анализа ДНК, анализа численности заключенных и прогнозирования преступлений. Обнаружение потенциальных смещений в обучающих данных и алгоритмах.