5 страхов ИИ и как с ними справиться
Искусственный интеллект занимает странное положение, имея многолетнюю историю, но все еще кажется многим людям совершенно футуристическим. На самом деле это не ново, но остается вечно «новой» границей. Никто не может честно утверждать, что точно знает, к чему это приведет.
Любое изменение вызывает страх. Однако страхи, связанные с ИИ, имеют другой порядок.
Так что, если это правда, что мы боимся того, чего не понимаем, то логично, что будущее ИИ не дает людям спать по ночам, особенно если рассматривать более зловещие возможные последствия. Вы могли бы разумно предположить, что это верно для любых крупных технологических разработок: они порождают изменения, которые вызывают страх и так далее. Однако страхи, связанные с ИИ, имеют другой порядок.
[ Хотите краткое руководство по 10 ключевым терминам искусственного интеллекта для руководителей ИТ и бизнеса? Получите нашу шпаргалку: глоссарий ИИ. ]
Например, большинство людей не знают, что такое архитектура микросервисов, даже если некоторые из приложений, которые они используют каждый день, были созданы несвязанным образом.Но техническая эволюция, такая как микросервисы, обычно не вызывает таких эмоциональных реакций, как ИИ в связи с потенциальными социальными и экономическими последствиями. Микросервисы также не увековечены в популярной культуре: никто не выстраивается в очередь в прокате фильма «Терминатор: Восстание облачных приложений».
В основном это говорит о страхах перед туманным будущим ИИ, и может быть сложно оценить их обоснованность, когда наше воображение разыгралось. Это не особенно полезно для ИТ-руководителей и других руководителей, пытающихся сегодня разработать практическую стратегию ИИ. И все же вы столкнетесь со страхами, многие из которых вполне обоснованы. Хитрость заключается в том, чтобы сосредоточиться на этих проблемах реального мира, а не на путешествующих во времени роботах-убийцах. Во-первых, их гораздо легче победить — э-э, решить, — потому что они часто основаны на текущей реальности, а не на футуристических спекуляциях.
«Типы страхов [людей по поводу ИИ] зависят от типа ИИ, о котором мы говорим», — говорит Кейланд Купер, научный сотрудник по нейробиологии Калифорнийского университета в Ирвине и содиректор ContinualAI. «Более теоретический и далекий «общий ИИ» — компьютер, который может делать все то же, что и люди, — вызовет больше опасений, чем более реалистичный алгоритм ИИ, который, как мы видим, широко используется сегодня».
Давайте сегодня рассмотрим пять обоснованных опасений по поводу ИИ и советы экспертов по их устранению, чтобы они не сорвали ваши планы по ИИ.
1. Страх: ИИ будет давать предвзятые результаты
Растет внимание к возможности — хотя вероятность, вероятно, является лучшим термином — предвзятости и других проблем в системах ИИ, а также к решениям или результатам, к которым они приводят. В отличие от некоторых более творческих голливудских рассказов об ИИ, вы должен бояться предвзятости ИИ.
В отличие от некоторых более творческих голливудских рассказов об ИИ, вам следует опасаться предвзятости ИИ.
«Алгоритмы хороши ровно настолько, насколько хороши данные, на которых они обучаются.Поэтому, если набор данных включает в себя исторические предубеждения организации, то прогнозы, которые он делает, будут отражать это историческое поведение», — Крис Николсон, соучредитель и генеральный директор Skymind. «Например, если компания потратила десятилетия на продвижение белых мужчин с дипломами Лиги плюща на руководящие должности, то алгоритм, обученный определять будущие лидерские таланты, может сосредоточиться на том же типе людей и игнорировать людей, которые не принадлежат к этой группе. ».
Как это решить:
Вы должны принять этот страх и действовать в соответствии с ним. Отсутствие беспокойства по поводу предвзятости ИИ повышает вероятность того, что она будет беспрепятственно распространяться.
Алгоритмы не должны снимать с отдельных лиц и организаций ответственность за результаты; человеческий надзор и управление абсолютно необходимы, и хороший пример того, как еще один страх — что мы больше не нужны — может быть немного преувеличен.
«Вы не можете доверять ИИ, чтобы он знал все или принимал идеальные решения. Алгоритмы создаются людьми, а люди совершают ошибки», — говорит Николсон. «Поэтому каждая компания должна создать систему для проверки своего ИИ. Возьмите регулярную выборку решений ИИ, покажите их экспертам и спросите их: правильно ли это? Потому что тогда вы, по крайней мере, не хуже экспертов, а это все, на что вы могли надеяться с самого начала.
Это может быть особенно важно в таких секторах, как здравоохранение, страхование, банковское дело, правительство и т. д. Но на самом деле нет нигде, где бы это не было важным вопросом.
«Практики в области искусственного интеллекта и инженеры по машинному обучению должны убедиться, что они придерживаются определенной степени алгоритмической ответственности, а ИТ-руководители должны иметь специальные группы данных, создающие программы устранения предвзятости для своих существующих наборов данных», — говорит Иба Масуд, соучредитель и генеральный директор. Тара АИ. «Это поможет установить уровень справедливости и равноправия в использовании систем для процессов принятия решений, особенно там, где участвуют конечные потребители».
Это вопрос этичности и справедливости.По словам Масуда, этика ИИ также может стать конкурентным преимуществом.
«Я считаю, что в ближайшие пять лет появится сознательный потребитель, который хочет вести бизнес с компаниями, внедряющими механизмы справедливости в свои процессы принятия решений с помощью ИИ», — говорит Масуд. «ИТ могут оказать значительное влияние на этот сдвиг в поведении потребителей, работая над устранением предвзятости в наборах данных, используемых для систем, основанных на принятии решений».
2. Страх: мы (будем) понятия не иметь, почему ИИ делает то, что делает.
Вот еще один естественный страх перед неизвестным: многие результаты ИИ трудно объяснить.
«Самые продвинутые формы ИИ, которые дают самые точные прогнозы данных, также наименее способны объяснить, почему они сделали этот прогноз», — говорит Николсон.
Это иногда называют «черным ящиком» ИИ, имея в виду отсутствие информации о решениях системы.
Это иногда называют «черным ящиком» ИИ, имея в виду отсутствие информации о решениях системы, что может быть проблемой для различных организаций.
«Во многих случаях и во многих компаниях людям необходимо знать, почему что-то было сделано, — говорит Николсон. «Это особенно верно в строго регулируемых отраслях. Возьмите здравоохранение. Вы не хотите, чтобы алгоритм принимал решения о диагнозе или лечении пациента, не зная, почему это решение было принято».
Купер предлагает другой сценарий, отмечая, что модель черного ящика становится особенно опасной, когда что-то идет не так.
«Скажем, я обучаю алгоритм выбирать лучшие акции и говорю, что он делает довольно хорошую работу, может быть, принося девять процентов прибыли», — говорит Купер.
Если вы получаете адекватную или более высокую отдачу от своих финансовых вложений, как в гипотетическом (и правдоподобном) сценарии Купера, вас может не слишком волновать, почему. Вы зарабатываете деньги, в конце концов. Но что, если вы потеряли девять процентов? Что делать, если вы потеряли все? Вы, вероятно, гораздо больше заботитесь о том, почему.
«Проблема в том, что во многих случаях мы не знаем, почему он выбирает то, что он выбирает», — говорит Купер. «Это пугает, так как это не только делает нас менее вовлеченными в систему, с которой мы работаем, но и не дает нам много информации, если она делает что-то не так».
[Может ли ИИ решить эту проблему? Читайте также: Как определить возможность ИИ: 5 вопросов, которые нужно задать. ]
Как это решить:
Одним из лучших способов борьбы с этим страхом является обеспечение того, чтобы человеческий интеллект и процесс принятия решений по-прежнему оставались жизненно важной, а в некоторых случаях и конечной частью любого процесса, даже если этот процесс улучшен с помощью ИИ. Другими словами, этот страх можно смягчить, обеспечив, чтобы люди сохраняли надлежащий контроль над процессами и решениями, даже если роль ИИ в этих процессах и решениях возрастает.
«В таких случаях, как [здравоохранение], ИИ лучше всего использовать как форму поддержки принятия решений для экспертов-людей», — говорит Николсон. «То есть вы не позволяете ИИ действовать в одиночку и без надзора. Вы интегрируете ИИ в существующий процесс принятия решений, где он может вносить предложения эксперту-человеку, но именно эксперт будет принимать окончательное решение, и он сможет объяснить, почему они его приняли.
3. Страх: ИИ будет принимать неправильные решения
Опять же, это вполне разумная забота. Как мы оцениваем точность и эффективность результатов ИИ? Что произойдет, если он сделает неверный выбор? (Вы можете видеть, как определенные комбинации этих опасений имеют усугубляющий эффект: что произойдет, если ИИ примет неверные решения, а мы не сможем объяснить, почему?) оптимистичным людям среди нас некомфортно.
Предвзятость может привести к плохим решениям. Однако на самом деле это более масштабный страх, который, среди прочих негативных последствий, может привести к тому, что команда не будет доверять любому результату ИИ. Это может стать более вероятным, когда люди, не входящие в команду ИИ (или ИТ в целом), анализируют результаты. Это также может привести к организационному застою.
«Это может быть очень сложно определить, особенно если невозможно дать количественное определение «хорошего» решения».
«Многие опасаются, что ИИ будет принимать неверные решения. Этот страх часто очень широк с технической точки зрения, но он всегда сводится к тому, что люди считают решение «просто неправильным», — говорит Джефф МакГихи, технический директор Very. «Для практиков это может быть очень сложно понять, особенно если невозможно дать количественное определение «хорошего» решения».
Как это решить:
Еще раз, важность человеческого фактора царит. Если вы не можете количественно определить, что представляет собой положительный результат, вам нужно будет придумать качественную основу для этого, убедившись, что вы полагаетесь на правильное сочетание людей и информации для борьбы с реальными проблемами, такими как предвзятость.
«Чтобы определить такое определение, заинтересованные стороны должны критически обдумать все возможные определения хорошего/плохого в отношении решения», — говорит МакГихи. "Точная правильность может быть идеальной, но часто определенные типы ошибок являются более приемлемыми или более "человеческими". Кроме того, "правильность" может относиться к тому, соответствуете ли вы какому-то стандартному списку прогнозов, предвзятость, это может быть плохой целью. Все эти факторы могут вступить в игру, когда нетехнические заинтересованные стороны оценивают качество решений ИИ».