13 просмотров

Принципы и задачи ответственного ИИ для бизнеса

Предприятия, предприятия, государственный сектор и работники постоянно изучают новые способы продолжения работы в условиях пандемии COVID-19. Общенациональные блокировки, указы, связанные с пребыванием дома, закрытие границ и ряд других мер, принятых на разных уровнях для борьбы с вирусами, которые сделали рабочую среду более сложной, чем раньше.

Предприятия переходят к технологически ориентированным решениям и данным на основе искусственного интеллекта (ИИ) для разработки процессов, которые могут работать эффективно.

Правительство начало процесс распознавания лиц с помощью камер, чтобы идентифицировать и отслеживать людей, которые путешествуют из района, пораженного вирусом. В некоторых странах полиция использует дроны для выдачи приказов оставаться дома для патрулирования, а также для передачи важной информации. В аэропортах и ​​на железных дорогах внедряются системы обнаружения лицевых масок на основе ИИ, которые поднимают тревогу в соответствующие отделы, если обнаруживают человека без лицевой маски. В торговых центрах, ресторанах или других людных местах, где непросто отслеживать социальное дистанцирование вручную. Правительство ввело системы на основе ИИ, которые постоянно отслеживают состояние зданий в режиме реального времени и поднимают тревогу, если какая-либо зона требует особого внимания.

Принципы ответственного ИИ

Восемь принципов, которым следует следовать, чтобы сделать ИИ ответственным и поддерживать технологии при проектировании, разработке или управлении системами, обучающимися на основе данных.

Аугментация человека

Когда мы представили ИИ для автоматизации задач, выполняемых человеком, с помощью систем машинного обучения, мы должны учитывать влияние, которое возникает из-за неверных прогнозов в сквозной автоматизации. Разработчики и аналитики должны понимать последствия неверных прогнозов, особенно когда они автоматизируют критически важные процессы, которые могут иметь жизненно важное значение для жизни людей (например, финансы, здравоохранение, транспорт и т. д.).

Статья в тему:  Как глобальное потепление влияет на биосферу

Оценка смещения

При создании систем с поддержкой ИИ, которые должны принимать важные решения, всегда есть вероятность предвзятости, то есть компьютерной и социальной предвзятости в данных. Невозможно избежать данных, имеющих проблему систематической ошибки. Технологи должны документировать и устранять проблемы предвзятости, а не внедрять этику непосредственно в алгоритмы. Их внимание должно быть сосредоточено на документировании присущей данным и функциям предвзятости при создании процессов и методов для определения функций и результатов вывода, чтобы можно было внедрить правильные процедуры для снижения потенциальных рисков.

Объяснимость обоснованием

Из-за шумихи вокруг использования моделей машинного обучения и глубокого обучения разработчики обычно помещают большие объемы данных в конвейеры ML, не имея никакого представления о том, как эти конвейеры будут работать внутри. Технологи должны постоянно улучшать процессы, чтобы объяснить прогнозируемые результаты на основе выбранных функций и моделей. В некоторых случаях точность может снижаться, но прозрачность и объяснимость процессов помогают принимать важные решения.

Воспроизводимые операции

Системы машинного обучения в производственной среде не способны диагностировать ситуацию, когда произошло что-то ужасное, и эффективно реагировать с помощью модели.В производственных системах жизненно важно выполнять стандартные процедуры, такие как возврат модели машинного обучения к предыдущей версии или воспроизведение входных данных для отладки определенной функции. Разработчики должны использовать лучшие практики в инструментах и ​​процессах операций машинного обучения. Воспроизводимость систем машинного обучения помогает архивировать данные на каждом этапе сквозных конвейеров.

Стратегия вытеснения

Когда организация начнет использовать автоматизацию в задачах с использованием систем ИИ, это влияние будет проявляться на отраслевом уровне, а также на нескольких людях или работниках. Технологи должны поддерживать необходимые заинтересованные стороны в разработке стратегии управления изменениями, определяя и документируя соответствующую информацию. Разработчики должны использовать лучшие практики для структурирования и размещения связанных документов.

Статья в тему:  Чем искусственный интеллект опасен для человека?

Практическая точность

При создании систем с использованием возможностей машинного обучения необходимо получить точное представление о бизнес-требованиях, чтобы оценить точность и согласовать функции метрики затрат с приложениями, специфичными для предметной области.

Доверяйте конфиденциальности

Когда отрасли автоматизируют работу в больших масштабах, большое количество заинтересованных сторон может быть затронуто прямо или косвенно. Укрепить доверие среди заинтересованных сторон невозможно, информируя их только о том, какие данные хранятся, но также и объясняя процесс, а также требование защиты данных. Технологи должны реализовать конфиденциальность на всех уровнях, чтобы укрепить доверие между пользователями, соответствующими заинтересованными сторонами.

Осведомленность о риске данных

С появлением автономных систем принятия решений также открываются двери для новых потенциальных нарушений безопасности. 70% нарушений безопасности происходят только из-за человеческой ошибки, а не из-за реальных взломов, то есть случайной отправки важных данных кому-либо по почте.

Технологи должны работать над рисками безопасности, создавая процессы вокруг данных, а также обучая персонал и оценивая последствия бэкдоров ML.

Внедрение ИИ не сработает в этих обстоятельствах

Некоторые сценарии, в которых ИИ не может реагировать должным образом.

  • Система распознавания лиц Google помечает чернокожих как горилл
  • Модели, прошедшие обучение в Google News, пришли к выводу, что «мужчина должен быть программистом, а женщина — домохозяйкой».
  • Модели распознавания изображений обучаются на наборе данных, связанном со стоковыми фотографиями, где большинство изображений связаны с женщинами, работающими на кухне, когда изображение мужчины приходит на кухню для идентификации. Он предсказывает мужчину также как женщину.
Статья в тему:  Как искусственный интеллект разделяет людей

Такие подходы, основанные на данных, при неправильном использовании или резком поведении могут нанести ущерб правам человека. В стратегиях, основанных на данных, должно быть чувство ответственности. Чтобы сделать искусственный интеллект ответственным, важно принять этические принципы при надлежащем планировании.

Ответственный ИИ защитит модели на основе ИИ от использования предвзятых данных или алгоритмов и будет давать обоснованные и объяснимые решения или идеи, а также поддерживать доверие пользователя и личную конфиденциальность.

«Почему я должен доверять ИИ?» Например, если система диагностики заболеваний на основе ИИ использует нейронную сеть, чтобы помочь врачу в диагностике заболеваний, врач не может подойти к пациенту и сказать: «Ой, извините, у вас рак». Пациент спросит: «Откуда вы знаете?» И врач здесь не может сказать: «Я не знаю, мне так сказала система ИИ». Это не совсем так работает. Система искусственного интеллекта должна быть обязана предоставить врачу некоторое объяснение, связанное с результатом.

«Большинство (77%) руководителей говорят, что ИИ угрожает повысить уязвимость и нарушить методы ведения бизнеса.
Источник — Как компании должны ответить на призыв к ответственному использованию ИИ

Совместим ли ответственный ИИ с бизнесом?

Ответственный ИИ объединяет многие практики в системах ИИ и делает их более разумными и заслуживающими доверия. Это позволяет использовать прозрачные, подотчетные и этичные технологии искусственного интеллекта последовательно в соответствии с ожиданиями пользователей, ценностями и законами общества.Это защищает систему от предвзятости и кражи данных.

Статья в тему:  Насколько близок искусственный интеллект человеческого уровня

Конечным пользователям нужна услуга, которая может решить их проблему и достичь поставленных целей. Вместе с душевным спокойствием, зная, что система не имеет неосознанного предвзятого отношения к конкретному сообществу или группе людей. Более того, защищая свои данные согласно законам от кражи и разглашения. Тем временем предприятия изучают возможности ИИ и узнают о рисках для общества.

Внедрение ответственного ИИ также является большой проблемой для предприятий и организаций. Обычно упоминается, что использование ответственного ИИ несовместимо с бизнесом. Мы обсудим причины, по которым говорят, что ответственный ИИ несовместим с бизнесом. Давайте обсудим их:

  • Существует широкое согласие по принципам ответственного ИИ, которое помогает понять, как их реализовать. Однако многие организации до сих пор не знают, как эффективно применять их на практике.
  • Многие думают, что это всего лишь словесные вещи, о которых нужно только говорить; они думают об этике ИИ, потому что не имеют четкого представления о решении, поскольку это новый термин, который еще не созрел.
  • Нелегко убедить заинтересованные стороны и инвесторов инвестировать в эту технологию как в новый термин. Они не могут понять, как машина может полностью действовать как человек при принятии решений.
  • Поэтому бизнес считает, что ответственный ИИ замедляет инновации, тратя время на убеждение людей и предоставление им видения того, почему это необходимо и как это возможно.
Статья в тему:  Как химия может помочь глобальному потеплению

Ответственное внедрение ИИ

Некоторые ключевые проблемы, которые необходимо решить для успешного внедрения ИИ:

  • Объяснимость и прозрачность: Если системы ИИ непрозрачны и не могут объяснить, почему и как генерируются конкретные результаты, это отсутствие прозрачности и объяснимости будет угрожать доверию к системе.
  • Личная и общественная безопасность: Использование автономных систем, таких как беспилотные автомобили на дорогах и роботы, может представлять опасность для людей.Как мы можем обеспечить безопасность человека?
  • Автоматизация и управление человеком: если системы ИИ могут генерировать доверие и поддерживать людей в задачах и разгружают их работу. Будет риск угрожать нашим знаниям, связанным с этими навыками. Это усложнит проверку надежности, правильности и результата этих систем, а также сделает невозможным вмешательство человека. Как мы обеспечиваем человеческий контроль над системами ИИ?
  • Предвзятость и дискриминация: даже если системы на основе ИИ работают нейтрально, они будут давать представление о любых данных, которые они обучают. Следовательно, на него могут повлиять человеческие и когнитивные предубеждения, неполные наборы обучающих данных. Как мы можем убедиться, что использование систем ИИ не приводит к непреднамеренной дискриминации?
  • Подотчетность и регулирование: С увеличением количества систем на основе ИИ почти во всех отраслях также будут расти ожидания в отношении ответственности и ответственности. Кто будет нести ответственность за использование и неправомерное использование систем ИИ?
  • Безопасность и конфиденциальность: системам ИИ приходится получать доступ к огромному количеству данных, чтобы выявлять закономерности и прогнозировать результаты, которые выходят за рамки человеческих возможностей. Здесь существует риск того, что конфиденциальность людей может быть нарушена. Как обеспечить безопасность данных, которые мы используем для обучения моделей ИИ?
Статья в тему:  Что, если искусственный интеллект неправильно интерпретирует цели

Каковы проблемы ИИ по пяти ключевым измерениям?

Ответственный ИИ фокусируется на 5 ключевых аспектах решения задач ИИ:

Управление

Управление является сквозной базой для всех других аспектов. Он может ответить на следующие вопросы:

  1. Кто несет ответственность за решения ИИ?
  2. Как приложения ИИ могут быть согласованы со стратегией бизнеса?
  3. Что необходимо изменить, чтобы улучшить результаты модели?
  4. Как можно отслеживать производительность системы?
  5. Являются ли выходные данные приложения согласованными или воспроизводимыми?

Поскольку процесс ИИ является итеративным, управление ИИ также должно быть итеративным. Более гибкая и адаптируемая форма управления может лучше ответить на вышеуказанные вопросы и реагировать на результаты приложений.Успешная основа управления будет заниматься стратегией и планированием в рамках всей организации с учетом экосистемы и возможностей поставщиков. Кроме того, следите за уникальным процессом разработки моделей, мониторинга и соблюдения требований.

Этика и регулирование

  • Приложения ИИ должны не только помочь организации автоматизировать процессы. Но должны развиваться ответственные и уважающие человеческую этику и мораль.
  • Надлежащее этическое рассмотрение и регулирование для организации позволяют им определять этические последствия решений ИИ. Тщательный учет определенного набора принципов помогает снизить этические риски.

Интерпретируемость и объяснимость

Разным заинтересованным сторонам системы могут потребоваться разные объяснения того, как система принимает решение. Отсутствие прозрачности и интерпретируемости в системах может расстроить клиентов. Это может привести к операционным, репутационным и финансовым рискам. Следовательно, необходимо иметь обоснование решений приложения. Более того, объяснение, которое будет предоставлять система, должно быть понятно различным заинтересованным сторонам.

Статья в тему:  Что произойдет, если парниковый эффект усилится

Надежность и безопасность

  • Приложения ИИ должны быть безопасными, безопасными и устойчивыми для эффективной работы. Система должна иметь встроенную возможность обнаружения и исправления ошибок, неточных и неэтичных решений.
  • Приложения ИИ используют данные для принятия решений. Таким образом, данные могут быть конфиденциальными; поэтому приложения должны быть защищены, чтобы никто не мог причинить им вред.

Предвзятость и справедливость

  • Предвзятость — наиболее известная и актуальная проблема приложений ИИ. Существуют различные реальные примеры приложений, которые столкнулись с такими проблемами. Например, Apple Card — это система, предвзятая по признаку пола. Это предлагало больше кредитных лимитов в меню, чем женщины, имеющие те же ценности или параметры.
  • Причины смещения в системе могут быть связаны с данными. Это также может быть алгоритмическая предвзятость, потому что эти приложения обучаются на исторических данных, которые могут иметь предвзятость.Эти предубеждения можно смягчить с помощью некоторых подходов и сделать приложение справедливым.

Замедляет ли ответственный ИИ инновации?

Несомненно, принятие и внедрение ответственного ИИ может замедлить процесс, но нельзя сказать, что это замедляет инновации. Использование систем ИИ без ответственного, этичного и ориентированного на человека подхода может стать быстрой гонкой, но больше не подходит. Если эти системы начнут работать против человеческой морали, этики и прав, люди больше не будут их использовать.

«Я не думаю, что нам следует тратить время на разговоры с людьми. Они не понимают эту технологию. Она может помешать прогрессу».

Статья в тему:  Почему они обвиняют людей в глобальном потеплении

Некоторые люди думают, что ответственный ИИ требует много времени; это тратит время и препятствует инновациям. Следовательно, оставьте все как есть. Но ответственный ИИ — это новый термин, поэтому необходимо дать людям необходимое видение. Может быть сложно убедить людей и представить им картину, но позже это позволит создать более инновационные и надежные системы. Мы должны сказать им, что осторожность в вещах потребует времени. Без сомнения, создание отношений с партнерами и заинтересованными сторонами требует времени. Это приведет к созданию ИИ, ориентированного на человека. Slowing Innovation стремится предоставлять решения, ориентированные на человека, которые защищают основные права человека и соблюдают верховенство закона. Он будет способствовать этическому обсуждению, разнообразию, открытости и участию общества.

Будущее ответственного ИИ?

Люди ищут подход, который можно было бы использовать для прогнозирования, а не реагирования на риски. Для этого требуется стандартный процесс, коммуникация и прозрачность. Таким образом, спрос на общий и гибкий ответственный ИИ также растет, поскольку его структура может обрабатывать различные решения ИИ, такие как прогнозирование кредитного риска или алгоритмы видеорекомендаций. Результат, который он обеспечит, понятен и удобочитаем для всех типов людей или заинтересованных сторон. Чтобы соответствующие аудитории могли использовать этот результат в своих целях.Например, конечные пользователи могут быть скупы на обоснование решений и то, как они могут сообщать о неверных результатах.

Статья в тему:  Кто отвечает за искусственный интеллект

Целостная стратегия

ИИ потенциально несет много рисков для прав человека, больше, чем риск для человеческих ценностей. Ответственный искусственный интеллект и его принципы обладают достаточным потенциалом, чтобы улучшить жизнь многих и обеспечить права человека для всех.

  • Узнайте больше о включении решений искусственного интеллекта (ИИ) на периферии
  • Узнайте больше об объяснимом искусственном интеллекте
  • Узнайте больше об ответственном искусственном интеллекте в правительстве
голоса
Рейтинг статьи
Ссылка на основную публикацию
Статьи c упоминанием слов:

0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x