Как искусственный интеллект помог Domino’s улучшить доставку пиццы
Когда используются слова искусственный интеллект (ИИ) и машинное обучение (МО), люди часто думают о передовых отраслях, таких как исследование космоса и биомедицина, которые в значительной степени зависят от исследований и разработок. Дело в том, что AI и ML должны быть тем, на что обращают внимание все отрасли, включая розничную торговлю. Сейчас мы живем в эпоху обслуживания клиентов, и небольшие различия в обслуживании могут иметь большое значение для доли рынка.
На прошлой неделе Nvidia провела виртуальную версию своей ежегодной конференции по технологиям графических процессоров (GTC), которая стала демонстрацией реальных случаев использования AI/ML. Исторически выставка была высокотехнологичной, но с годами она превратилась в мероприятие, на котором компании демонстрируют, как они используют передовые технологии для преобразования своего бизнеса.
[ Также на InfoWorld: прогнозы искусственного интеллекта на 2020 год ]
Domino’s использует AI и ML для улучшения работы магазинов и онлайн-операций
Domino’s — это пример знакомого розничного бизнеса, демонстрирующего, как он использует AI и ML. Компания придумала успешный рецепт, чтобы изменить то, как она работает. Секретным ингредиентом является технология Nvidia, которую ведущая сеть пиццерий использует для улучшения работы магазинов и онлайн-магазинов, повышения качества обслуживания клиентов и более эффективной маршрутизации заказов.
В результате Domino's видит более довольных клиентов и больше советов для своих водителей. Но это лишь малая часть многогранного пирога. Итак, что нужно, чтобы доставить пиццу из магазина Domino’s на дом? Ответ довольно сложный.
Сервер Nvidia DGX-1 позволил Domino's ускорить свои инициативы в области искусственного интеллекта и машинного обучения.
Команда специалистов по данным Domino’s проверила скорость и эффективность компании, используя сервер Nvidia DGX-1, интегрированную программно-аппаратную систему для исследований в области глубокого обучения. Для тех, кто не знаком с линейкой серверов DGX, Nvidia создала серию устройств «под ключ», которые предприятия могут сразу же использовать.Альтернативой является объединение аппаратного, программного обеспечения и ИИ-платформ и правильная настройка всей системы. На это могут уйти недели.
Команда Domino’s создала модель прогнозирования доставки, которая прогнозирует, когда заказ будет готов, используя атрибуты заказа и то, что происходит в магазине Domino’s, например количество сотрудников, менеджеров и покупателей, присутствующих в этот момент. Модель была основана на большом наборе данных из пяти миллионов заказов, который невелик, но достаточно велик для создания точных моделей. Все будущие заказы возвращаются в систему для дальнейшего повышения точности модели.
Настольные компьютеры и ноутбуки не справляются с искусственным интеллектом и машинным обучением
В предыдущих моделях Domino использовались ноутбуки и настольные компьютеры с графическим процессором, и для их обучения требовалось более 16 часов. Из-за длительных временных рамок было чрезвычайно сложно улучшить модель, сказал Закари Фрагозо, менеджер Domino по науке о данных и искусственному интеллекту, во время презентации на виртуальной GTC 2020.
Дополнительная вычислительная мощность DGX-1 позволила специалистам по данным Domino обучать более сложные модели за меньшее время. Система сократила время обучения до часа и повысила точность прогнозов заказов с 75 до 95 процентов. По словам Фрагозо, тест показал, как Domino может повысить производительность за счет более быстрого обучения моделей.
[ Также на InfoWorld: Глубокое обучение против машинного обучения: понимание различий ]
Совместное использование ресурсов — еще одно преимущество DGX-1.
При этом Domino обнаружила еще одно преимущество: совместное использование ресурсов. Каждый отдельный графический процессор в DGX-1 настолько большой — с 32 ГБ ОЗУ — что специалисты по обработке и анализу данных Domino могут использовать часть графических процессоров и проводить несколько тестов одновременно. Имея под рукой восемь таких графических процессоров, специалисты по данным обнаружили, что им приходится делиться ресурсами и знаниями, а также сотрудничать между командами.
В прошлом разделение работы между командами, включая проверку кода и тестирование обеспечения качества, было сложной задачей, поскольку специалисты по данным работали в своих собственных локальных средах.Теперь, когда специалисты по данным работают с общим сервером DGX-1, они могут легко совместно использовать контейнеры Docker, полностью настраиваемые и воспроизводимые. Это дает специалистам по данным большой пул ресурсов для работы и доступа к ресурсам, когда это необходимо, поэтому они не сидят без дела. Решение Docker, интегрированное Domino с DGX-1, также упрощает воспроизведение кода в различных средах, поскольку все данные содержатся в образе Docker.
Недавно Domino приобрела второй DGX-1 и начала добавлять к нему систему управления контейнерами Kubernetes. Благодаря Kubernetes, управляемому механизмом оптимизации, Domino может динамически распределять ресурсы для всех своих специалистов по данным и быстрее запускать контейнеры. По словам Фрагозо, даже специалисты по данным, не знакомые с Linux, могут запускать контейнеры Docker простым щелчком мыши.
Что касается развертывания, Domino создала стек логических выводов, который включает в себя кластер Kubernetes и четыре графических процессора Nvidia. Таким образом, специалисты по данным могут взаимодействовать и создавать свои модели, используя ту же структуру контейнеров Docker, которую они используют в DGX-1.
Domino также приобрела операционную платформу машинного обучения под названием Datatron, которая находится поверх кластера Kubernetes с графическими процессорами и помогает Domino с функциями машинного обучения. Datatron позволяет отслеживать производительность модели в режиме реального времени, поэтому специалисты по данным могут быть уведомлены, если их модель требует переобучения.
AI и ML быстро переходят в сферу ИТ-отделов.
Использование собственного стека логического вывода позволяет Domino’s пользоваться всеми преимуществами, которые предлагают поставщики облачных услуг для размещения моделей машинного обучения, сохраняя при этом все данные и ресурсы локально. Это изменило способ развертывания моделей специалистами по данным, предоставив им гораздо больший контроль над процессом развертывания, пояснил Фрагозо в своей презентации.
[ Будьте в курсе последних событий в области разработки программного обеспечения, облачных вычислений, анализа данных и машинного обучения с информационным бюллетенем InfoWorld Daily. ]
В заключение Фрагозо дал совет другим компаниям, которые хотят внедрить эти технологии у себя: «Подумайте о том, как ваши специалисты по данным будут работать вместе и сотрудничать. В нашем случае DGX-1 и наши специалисты по данным взаимодействуют в общем рабочем пространстве. Это было то, что наша команда не учла, когда мы впервые приобрели этот продукт, и это было для нас реальной ценностью».
Исторически сложилось так, что специалисты по данным работали как независимые подразделения внутри компаний. Все больше и больше ИТ-организаций просят взять на себя задачу по предоставлению подходящих технологий для инициатив в области искусственного интеллекта и машинного обучения. Специалисты по обработке и анализу данных — дорогостоящий ресурс для большинства компаний, и заставлять их сидеть и ждать, пока закончатся модели, все равно, что выбрасывать хорошую пиццу в окно. Правильная инфраструктура, такая как серия серверов DGX, позволяет компаниям сократить время обработки, чтобы специалисты по данным работали больше и меньше ждали.
- Машинное обучение
- Глубокое обучение
- Аналитика
- Разработка программного обеспечения
Зевс Керравала — основатель и главный аналитик ZK Research.