0 просмотров

Большая пятерка проблем ИИ

Наверняка вы слышали, как ИИ может решить все наши проблемы в ближайшие годы.По той же причине вы, возможно, слышали и все плохие новости — например, о том, что ИИ захватит власть, как это сделал Скайнет, и как мы все можем потерять работу и т. д. Есть много проблем, с которыми сталкивается ИИ. Например, ажиотаж против предоставления результатов, отсутствие данных, предвзятость в данных и т. д. В этой части я хотел бы углубиться в проблемы, которые ИИ может создать (или уже создает) в наших человеческих обществах.

Многие конференции по ИИ, как в отрасли, так и в научных кругах, начали обсуждать эти проблемы. Я мог бы придумать 5 больших, как показано ниже:

Контроль

Потеря работы

Предвзятость

Объяснимость

Этическое принятие решений

Может пройти некоторое время, прежде чем представители отрасли и правительства соберутся вместе, чтобы определить потенциальные решения этих проблем, чтобы решения ИИ можно было использовать без опасений. Но давайте копнем немного глубже и выясним вопросы.

Взятие под контроль

Что будет, если роботы возьмут контроль над нашей жизнью? Я не говорю о глобальном контроле типа Матрицы или Скайнета с машинами, пытающимися стереть человечество с лица земли по каким-то причинам. Это было бы ужасно, но мы еще не там.

Статья в тему:  Как работают схемы сетевого представления в искусственном интеллекте

Говоря о взятии под контроль, мне вспоминается беседа между Нео и советником Харманом в движении «Матрица: перезагрузка». Взглянем:

Существует много шумихи о том, что ИИ может делать, но не может на самом деле. Это может означать, что потеря тысяч рабочих мест не является неизбежной. Однако ключевым лицам, принимающим решения в отрасли, и правительствам пора начать обсуждение этого вопроса. Как мы справляемся с рабочими местами, потерянными из-за ИИ? Как мы должны реструктурировать нашу образовательную систему, чтобы мы научили наших детей справляться с будущим ИИ? Или ввести законы, чтобы создать будущее, в котором машины и люди образуют симбиотические отношения и работают вместе.

Предвзятость

Одной из основных проблем, проявляющихся в ИИ сегодня, является проблема предвзятости. Решения ИИ страдают предвзятостью в зависимости от данных и алгоритмов, которые ими управляют. Существует два вида ИИ — запрограммированный ИИ и обученный ИИ.Запрограммированный ИИ — это интеллектуальное поведение, запрограммированное путем разработки умных алгоритмов. Знания и опыт, необходимые системе для разумного поведения, кодируются вручную опытными дизайнерами. С другой стороны, обученный ИИ учится разумно вести себя на основе данных. Алгоритмы машинного обучения учатся на тысячах аннотированных примеров. В обоих случаях проявляется предвзятость. Предвзятость в запрограммированном ИИ возникает из-за предвзятости дизайнера, а в обученном ИИ — из-за разреженности данных.

Решения ИИ могут стать предвзятыми в отношении определенного пола, расы или идеологии в зависимости от предвзятости дизайнеров и доступности данных. Реальный пример расовой предвзятости в ИИ был продемонстрирован в системе под названием COMPAS, используемой в США для оценки вероятности повторного совершения преступником преступлений. Система была предвзята в отношении чернокожих ответчиков, поскольку она чаще помечала их как представляющих высокий риск, чем их белых коллег.

Статья в тему:  Как разработать беспристрастный искусственный интеллект

Отличное чтение о предвзятости ИИ здесь. Дайте ему прочитать. Недавно поставщики услуг ИИ, такие как IBM и Accenture, придумали способы обнаружения и устранения предвзятости в данных, используемых для обучения решений ИИ.

Объяснимость

Может ли ИИ объяснить нам себя или это черный ящик? Почему он решает сделать одно, а не другое? Раньше с алгоритмами, которые изучали деревья решений и правила, было просто прочитать, что алгоритмы извлекли из данных. Но в наши дни, когда нейронные сети глубокого обучения проникают повсюду, стало гораздо труднее понять, что ИИ знает, а что нет. Компании, продающие продукты ИИ, не могут объяснить своим клиентам, почему ИИ сделал то, что он сделал, кроме как обвинять или хвалить данные, на которых он был обучен.

Объяснимый ИИ сейчас является своего рода популярной темой, поскольку клиенты хотят иметь право запрашивать объяснение того, почему их запросы так или иначе были обработаны бизнесом. Например, почему моя заявка на ипотеку была отклонена. Недостаточно сказать: «ИИ обработал ваши цифры, и, судя по уже имеющимся у нас данным, вы не соответствуете требованиям».

Этическое принятие решений

Другой ключевой вопрос в технологии искусственного интеллекта — это вопрос этического принятия решений. Что правильно и что неправильно? Здесь мы начинаем задаваться вопросом, как ИИ будет выбирать между двумя злами — какое из них больше зла, чем другое, чтобы он мог совершить меньшее из двух зол, учитывая трудный выбор между ними. Например, рассмотрим классическую проблему самоуправляемого автомобиля на дороге с отказавшей тормозной системой. Он сталкивается с двумя людьми, в одного из которых ему придется врезаться: пожилой женщиной и молодым ребенком. Какой из двух он должен выбрать? Такие решения тоже принимаем мы — люди, но никогда не задумываемся об этом заранее и не готовимся. Однако такие вопросы требуют ответов, когда речь идет о развертывании ИИ для выполнения нашей работы в опасных условиях.

Статья в тему:  Как тестировать мобильные приложения с искусственным интеллектом

Как мы справляемся с этими проблемами?

Возможное решение вышеуказанных проблем также дает нам беспроигрышный сценарий с точки зрения проблемы «люди против ИИ». Вместо того, чтобы противопоставлять ИИ и людей конкурентам, почему бы не сделать их сотрудниками! Решения ИИ, такие как чат-боты, роботы и т. д., которые имеют удобный для человека интерфейс, могут быть объединены с обученными руководителями-людьми, создавая симбиотические отношения.

У ИИ есть проблемы, с которыми люди могут помочь, и люди могут делегировать ИИ простые, рутинные задачи.

Людей можно научить понимать, как работает ИИ, где он борется и какая помощь ему нужна. Точно так же, как компьютеры и Интернет были внедрены на рабочих местах, искусственный интеллект мог быть таким же. Точно так же, как нас учили адаптироваться к новым реалиям работы с компьютерами и Интернетом, нас можно научить адаптироваться к ИИ. Как мы можем делегировать работу нашим коллегам по ИИ? Как мы можем контролировать их и следить за тем, чтобы они хорошо выполняли свою работу? И как взять на себя ответственность за их действия? И тренироваться, чтобы быть лучше в том, что они делают?

Люди могут интерпретировать решения ИИ и при необходимости смогут отменить их. Хорошие решения, принятые ИИ, будут вознаграждены, и такая обратная связь может помочь ИИ стать лучше.Люди, которые учатся работать с ИИ и больше доверяют ему, приведут к более здоровому рабочему месту. Забирая у людей повторяющиеся обязанности, ИИ может помочь людям избавиться от скуки и сделать работу интересной и целенаправленной.

голоса
Рейтинг статьи
Статья в тему:  Что лучше большие данные или искусственный интеллект
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Adblock
detector