Сколько искусственного интеллекта у IBM Watson?
Чтобы оценить будущее IBM (NYSE:IBM), нужно понять ее платформу когнитивных вычислений Watson. Поскольку ее основной бизнес сокращается, IBM рассчитывает, что Watson будет стимулировать рост в новых областях, таких как аналитика, здравоохранение, Интернет вещей и безопасность. Но какой искусственный интеллект (ИИ) представляет собой IBM Watson? И как это соотносится со многими продуктами, основанными на глубоком обучении, которые сегодня появляются на рынке?
Watson начинался как продолжение IBM DeepBlue, компьютерной программы и программы искусственного интеллекта, которая победила чемпиона мира по шахматам Гэри Каспарова. DeepBlue продемонстрировал, что компьютер может победить человека в шахматах, игре с четко определенными правилами и ограниченными, полностью видимыми решениями.
Однако реальный мир намного сложнее: информация часто неструктурирована, проблемы плохо определены, а решения в лучшем случае вероятностны. Чтобы вооружить ИИ для работы в реальном мире, IBM поставила перед своими учеными-компьютерщиками и специалистами по данным задачу создать программу, которая могла бы победить людей-участников в Jeopardy!, викторине, требующей ответов на вопросы на естественном языке в широких областях знаний, иначе известных как неструктурированные данные.
Входит Ватсон. Watson справился с этой задачей в 2011 году, что стало важной вехой в развитии искусственного интеллекта.
Напомним, искусственный интеллект можно разделить на три категории, как показано выше. 1 Первая категория — это сам ИИ, определяемый в широком смысле и охватывающий все возможные подходы к моделированию интеллекта. Подмножеством искусственного интеллекта является машинное обучение (ML), которое автоматически использует данные и опыт для настройки алгоритмов. Наконец, подмножество ML — это глубокое обучение (DL).Глубокое обучение использует алгоритмы, вдохновленные мозгом, — нейронные сети — для имитации процесса обучения. Из-за взрыва данных, связанного с социальными сетями, подключенными датчиками и сейсмической разведкой нефти, среди прочего, машинное обучение стало довольно популярным. Среди алгоритмов машинного обучения глубокое обучение может поглощать больше всего данных и побило многие рекорды ИИ, став наиболее многообещающим подходом к искусственному интеллекту.
IBM Watson — это система машинного обучения, которая обучается преимущественно на данных, а не на правилах. Как систему ее лучше всего описать как разнородный ансамбль экспертов. Чтобы распаковать: это ансамбль, состоящий из множества небольших функциональных частей; он неоднороден, поскольку части не похожи друг на друга; и они являются экспертами, поскольку каждый специализируется на решении конкретной подзадачи. Аналогией с биологией может быть система органов — человек использует разные органы, каждый из которых специализируется на какой-то подзадаче, для поддержания жизни.
На приведенной выше диаграмме показана системная архитектура Watson. На высоком уровне это работает следующим образом:
- Механизм обработки естественного языка «Анализ вопросов и тем» пытается понять вопрос, разбивая его на слова, отображая отношения между словами и изолируя тему вопроса. Система синтаксического анализа — это Slot Grammar, один из немногих алгоритмов, основанных на правилах, которые использует Watson.
- После того, как Watson интерпретирует вопрос, он ищет ответы в бесчисленных источниках, как это делает обычная поисковая система Google. Watson может просеивать неструктурированные данные, такие как Википедия и ленты новостей, а также структурированные базы данных и данные.
- После того, как он сгенерирует возможные ответы, Watson собирает дополнительные доказательства. Этот вторичный поиск выявляет новую информацию, которая повышает сильные ответы и устраняет слабые. Затем Watson вычисляет показатель достоверности для каждого ответа на основе подтверждающих данных.
- Наконец, IBM Watson выбирает ответ с наивысшей оценкой достоверности и оказывается правильным в 71 % случаев.
Важно отметить, что IBM Watson — это программа с массовым параллелизмом, поэтому на каждом этапе процесса логического вывода может генерироваться множество вариантов ответов. Один вопрос, например, может генерировать 100 вариантов ответа, каждый со 100 источниками доказательств, и каждый оценивается 100 алгоритмами. Таким образом, один вопрос может дать миллион оценок достоверности, которые необходимо свести к одному показателю достоверности. Переход от большого количества входных данных к небольшому количеству выходных — это задача классификации, которую Уотсон называет «Окончательное слияние и ранжирование достоверности» и требует использования классического машинного обучения.
Согласно IBM, чтобы победить Jeopardy! Команда Watson экспериментировала с рядом алгоритмов машинного обучения, среди которых логистическая регрессия, машины опорных векторов, деревья решений и многоуровневые нейронные сети или глубокое обучение, и выбрала классификатор логистической регрессии как наиболее надежное решение.
Интересно, что IBM повозилась с глубоким обучением для Watson, но оно не работало достаточно хорошо, чтобы оправдать его включение. За последние пять лет глубокое обучение превзошло другие алгоритмы машинного обучения в различных задачах. Почему этого не произошло с Уотсоном?
Один из возможных ответов заключается в том, что у IBM не было достаточно обучающих данных. Как правило, глубокое обучение превосходит другие алгоритмы при обучении с помощью много данных. Как показано ниже, AlexNet — знаменитый классификатор изображений на основе глубоких нейронных сетей, получивший награду ILSVRC в 2012 году, — использовал 1,2 миллиона обучающих примеров. Проблема, более сравнимая с Jeopardy!, современным набором данных для понимания прочитанного, таким как SQuAD, тренируется со 100 000 примеров. Уотсон подготовил всего 25 000 вопросов. В то время как ограниченный набор данных мог поставить в невыгодное положение глубокое обучение в Jeopardy! вызов, последние алгоритмы, основанные на глубоком обучении, хорошо себя зарекомендовали даже с меньшими наборами данных.
Глубокое обучение также могло быть недостаточно эффективным, потому что к тому времени, когда оно достигло стадии классификации, было удалено слишком много информации: классификатор работает с показателями достоверности, а не с возможными ответами. Ключевая сила глубокого обучения заключается в том, что оно автоматически извлекает полезные функции из исходных данных; передача ему сильно обработанных входных данных, таких как оценки достоверности, устраняет это преимущество.
Подводя итог, можно сказать, что IBM Watson — это система, которая выполняет вопросы и ответы в открытой области. Он использует несколько методов искусственного интеллекта, таких как синтаксический анализ языка на основе правил, базы знаний, поиск и статистическое машинное обучение. Его сила в том, что он может интерпретировать сложные запросы, выраженные на естественном языке, обращаться ко многим источникам данных, генерировать множество возможных ответов, оценивать их на основе доказательств и выбирать ответы с хорошей точностью.
Тем не менее, мир ИИ сильно изменился с момента дебюта Уотсона. В частности, глубокое обучение стало ведущим алгоритмом для разработки ИИ. За пять лет распознавание изображений, распознавание речи, синтез речи, машинный перевод, открытие лекарств и робототехника достигли нового уровня производительности благодаря глубокому обучению.
Точно так же DL вытеснило традиционные методы машинного обучения при ответах на вопросы. Хорошо известным эталоном ответов на вопросы является TREC QA, Text REtrieval Conference Question Answering, точность которого приближается к 80%, как показано ниже, благодаря методам, основанным на глубоком обучении, которые обрабатывают текст. Хотя мы не знаем, как Watson работает в TREC QA, мы знаем, что IBM Research переключает передачи: они опубликовали результаты TREC QA исследований 2015–2017 годов, основанных на глубоком обучении и выполненных на самом современном уровне или близком к нему. .
В 2015 году IBM приложила большие усилия, чтобы добавить в Watson возможности глубокого обучения, добавив в феврале распознавание речи и изображений на свою платформу BlueMix.В марте того же года IBM приобрела AlchemyAPI, стартап, специализирующийся на анализе текста и изображений на основе глубокого обучения. Компания заявляет, что обслуживает 40 000 разработчиков и обрабатывает три миллиарда вызовов API в месяц.
Несмотря на то, что IBM Watson был разработан до появления глубокого обучения, он остается на удивление актуальным. Это не монолитный алгоритм, а модульная система, которая может включать в себя новые источники данных и алгоритмы, включая глубокое обучение. Многочисленные приобретения IBM дали компании богатый набор обучающих данных для Watson. Если IBM добьется успеха, Watson сможет внедрить ИИ в здравоохранение, аналитику, Интернет вещей, финансовые услуги и многое другое.
Заявления ARK не являются одобрением какой-либо компании или рекомендацией покупать, продавать или держать какие-либо ценные бумаги. Список всех покупок и продаж, совершенных ARK для клиентских счетов за последний год, которые SEC может рассматривать как рекомендации. Не следует предполагать, что рекомендации, сделанные в будущем, будут прибыльными или сравняются с показателями ценных бумаг в этом списке. Для полного раскрытия, нажмите здесь.
Эта статья была написана