Что ждет искусственный интеллект в будущем?
Вы читаете бесплатную статью с мнениями, которые могут отличаться от премиальных инвестиционных услуг The Motley Fool. Станьте участником Motley Fool сегодня, чтобы получите мгновенный доступ к рекомендациям наших лучших аналитиков, углубленным исследованиям, инвестиционным ресурсам, и более. Учить больше
НАСДАК: АМЗН
Амазонка
Рыночная капитализация
951 млрд долларов
Сегодняшнее изменение
(1,00%) $0,93
Текущая цена
$ 94,13
Цена на 23 ноября 2022 г., 16:00. ET
Сотрудник IBM со 116 патентами делится своим видением будущих вычислений для искусственного интеллекта.
Все становится действительно интересным.
Искусственный интеллект уже стал мейнстримом. Компании используют NVIDIA (NVDA 3.00%) графические процессоры, Xilinx's (XLNX) программируемые вентильные матрицы или их собственные настраиваемые чипы для обучения моделей машинного обучения распознаванию различных входных данных. Этот метод обучения нейронных сетей является технической причиной Тесла автономные автомобили могут распознавать знаки остановки и Facebook социальная сеть умеет распознавать лица.
Но мы приближаемся к захватывающей и странной новой эре, которая основана на процессе, называемом логическим выводом на основе машинного обучения. В отличие от обучения, вывод предполагает, что компьютеры используют все, чему мы их научили, для создания чего-то совершенно нового.
Искусственный интеллект набирает обороты во всем мире. Источник изображения: Getty Images.
Возьмите этот сайт в качестве примера.Он показывает фотографии в высоком разрешении обычных людей, которые легко могут быть вашими коллегами или жить по соседству.
Но загвоздка в том, что ни один из этих людей на самом деле не существует. Каждая из картинок является подделкой, искусственно созданной генеративно-состязательной сетью, обученной тому, как выглядят глаза, нос и волосы. ИИ создал что-то самостоятельно, основываясь на всем, чему мы его научили.
Эта же концепция машинного вывода позволяет Google (GOOGL 1,45 %) Duplex, чтобы назначать встречи для вас или для Амазонка (1,00% AMZN) Alexa будет активно давать вам рекомендации по продуктам.
За кулисами вывод требует тонны вычислительной мощности, чтобы действительно работать. По оценкам Amazon Web Services, логические выводы могут составлять до 90 % вычислительных затрат, необходимых для любого данного приложения.
Другими словами, нам нужно обновлять вычислительное оборудование. Мы не можем просто запустить все на Intel центральные процессоры (ЦП) больше, по крайней мере, без огромных счетов за электроэнергию за всю потребляемую мощность. Начинается гонка за разработку новых чипов и программных экосистем, которые могут наиболее эффективно выполнять логические выводы.
Путь вперед
Чтобы помочь нам увидеть, что нас ждет в будущем, я недавно говорил с IBM (IBM -0,23%) коллега и главный агитатор Джон Кон. У Джона один из самых передовых компьютерных умов на планете: на его имя более 116 патентов и 36 технических статей после почти 40 лет работы в одной из крупнейших компаний мира.
В нашем разговоре на конференции South by Southwest в Остине Джон обсуждает, почему и как искусственный интеллект стал таким популярным, а также растущую роль ускорителей ИИ. Он также объясняет, почему он является поклонником использования программируемых вентильных матриц (FPGA) для инноваций, но нестандартных кремниевых микросхем для крупномасштабных коммерческих приложений.
Наш разговор запечатлен в следующем видео, а его полная расшифровка также приведена ниже.
Узнайте, почему Амазон является одним из 10 лучших акций для покупки сейчас
Соучредители Motley Fool Том и Дэвид Гарднер уже более десяти лет опережают рынок. В конце концов, информационный бюллетень, который они выпускают уже более десяти лет, Биржевой советник Motley Fool, увеличил рынок в четыре раза.*
Том и Дэвид только что представили свои десять лучших акций, которые инвесторы могут купить прямо сейчас. Amazon находится в списке, но есть девять других, которые вы, возможно, упускаете из виду.
* Stock Advisor возвращается с 1 марта 2019 г.
Стенограмма
Сотрудник IBM Джон Кон: Ну позвольте мне просто сказать, что я большой поклонник оборудования. Я исходил из этого. И это очень интересно.
Когда мы говорили раньше о том, как облако вот-вот захватит мир. Ну, как и во многих других случаях, истина где-то посередине. Будет произведена перебалансировка между локальным оборудованием и облачным оборудованием. С обеих сторон будет много достижений в области технологий. С кремниевой технологией, которая чем-то напоминает [Закон Мура], ситуация начала выравниваться.
Что ж, в архитектуре еще много работы по ускорению и т. д. Например, GPU, TPU. Мы только что объявили об инвестициях в миллиард долларов в Олбани в группу, которая на самом деле изучает технологические подходы к ИИ.
Саймон Эриксон, ведущий советник Motley Fool Explorer: Вы говорите об ускорителе — более эффективном и быстром выполнении кода?
Джон Кон: Когда вы говорите «код», вы смотрите на структуру, подобную графическому процессору. Графические процессоры работают для ИИ, потому что в нейронной сети — скажем, в глубоком обучении — вы просто выполняете много линейной алгебры. Вы делаете целую кучу множителей. Это в основном все. То же самое, что делает графику действительно плавной для игры, на самом деле просто делает много матричных умножений.
Итак, в 2012 году, когда кто-то сказал: «Эй, давайте попробуем использовать коммерческие графические процессоры», это была комбинация таких вещей, как CUDA, с последующим созданием слоев поверх нее. Будь то Pytorch, TensorFlow, Octave, что угодно, чтобы избавить вас от необходимости писать код CUDA самостоятельно.Именно тогда ИИ и глубокое обучение начали набирать обороты.
Эти ускорители — это здорово, за исключением того объема вычислений, который вы можете выполнить с определенным количеством времени и определенным бюджетом мощности. Потому что, в конечном счете, вы должны поместить все это в одну коробку. Это становится ограниченным, потому что графические процессоры не были предназначены для этого. Сейчас многие компании, в том числе и мы, работают над ускорителями более специального назначения, так называемыми ТПУ.
Но мы даже смотрим дальше этого. Я собираюсь установить аппаратный кластер в Массачусетском технологическом институте мощностью около 112 киловатт. Это большая сила. Наш человеческий мозг потребляет около 20 ватт, когда вы сидите там. Есть много возможностей для улучшения.
Это место в Олбани ищет всевозможные технологии ускорения. Мы рассматриваем аналоговые технологии. Мы рассматриваем память с фазовым переходом, MRAM. Чтобы иметь возможность выполнять аналоговые вычисления на этих моделях нейронных сетей.
Не обязательно запускать код, линейный код, как на GPU. Но на самом деле делать аналоговые вычисления, которые модель нейрона делала бы в аналоговом режиме. С меньшей точностью, но гораздо меньшей мощностью. Гораздо меньшую мощность можно — из-за параллелизма — обменять на гораздо большую производительность или намного большую модель.
Теперь вы спросили о ПЛИС. Это разные штрихи для разных людей, верно? Вы должны выяснить, что вы пытаетесь сделать.
Я очень верю в ПЛИС как в технологию для инноваций. Одна из самых важных вещей, которые вам нужно сделать, это то, что вам нужно — в этом понятии способности играть с чем-то — вы должны быть в состоянии очень быстро внедрять инновации. Вам нужно попробовать некоторые из них, запустить на них реальные рабочие нагрузки, репрезентативный набор, а затем внести некоторые изменения.
Саймон Эриксон: Что вам нужно для внесения изменений?
Джон Кон: К настоящей архитектуре. Так что, если вы действительно пытаетесь оптимизировать производительность по мощности — а это коробка — «Какую производительность я могу получить в рамках определенного бюджета мощности?» Это в основном то, что это все о.Это тюнинг. В течение многих лет мы просто настраивали программное обеспечение, а аппаратное обеспечение оставалось тем, чем оно было. Что ж, мы не можем позволить себе сделать это сейчас, когда следующий поворот рукоятки не дает нам большей производительности на оборудовании. Как вы сказали, верно?
Итак, что нам нужно сделать, так это по-настоящему совместно оптимизировать уровни программного и аппаратного обеспечения. Почти как первые дни аппаратного обеспечения. Почти в то время, когда можно было считать биты памяти. Нужно было очень, очень заботиться о том, куда уходит каждый пиковатт.
Когда вы пытаетесь это сделать, вы создаете вычислительную структуру типа: «Ну как мне сделать это в 64-битном, или в 32-битном, или даже в восьмибитном?» Некоторые вычисления при распознавании изображений на самом деле выполняются намного быстрее и намного эффективнее при более низком разрешении с той же точностью. Поди разберись, да?
Что ж, единственный способ создать аппаратное ускорение — радикально изменить архитектуру ускорителя. Чтобы сделать это как цикл чипа, может потребоваться много миллионов долларов и четыре месяца. Или от трех до шести месяцев изготовления нового чипа. Ну, вы не можете позволить себе это сделать.
Саймон Эриксон: Ага.
Джон Кон: ПЛИС — это быстрое прототипирование. Я могу получить почти нестандартную аппаратную производительность, но через день. Я могу внести изменения.
Как технология развертывания — как если бы вы собирались заняться глубоким обучением — это своего рода убывающая отдача. В какой-то момент вы тратите гораздо больше денег, и вы действительно получаете удар по стоимости, плотности и мощности. Что если у вас вообще есть какая-то громкость, как только вы ее настроите, имеет смысл сделать чип. Если у вас очень маленькая ниша, то, что вам не нужно очень много, то фактические сложности — стоимость и сложность создания собственного чипа — могут быть не очень хорошей идеей. Если это особая цель: «Я просто распознаю один определенный тип изображения, и мне нужно ускорить его, потому что я делаю что-то в реальном времени», тогда FPGA может иметь смысл.Но если у вас есть какой-то объем, я лично считаю, что вам нужно перейти на [кастомный чип].
Что также интересно, так это то, что существуют гибриды между стандартной FPGA, которая может эмулировать любую логику, и программируемыми в полевых условиях комбинациями более высоких функций. Вы увидите вещи, которые на самом деле представляют собой компонуемые блоки более высокого уровня, которые вы можете в некоторой степени настроить, но у вас не будет накладных расходов на создание отдельных логических блоков в FPGA.
Саймон Эриксон: Лучшее из обоих миров.
Джон Кон: Да, и это своего рода баланс. В конце концов, посмотрите на что-то вроде майнинга биткойнов. В конце концов вам пришлось пойти на — и я не большой поклонник майнинга биткойнов — но вы должны в конечном итоге пойти на особую цель, чтобы оставаться впереди в конкурентной борьбе.
Саймон Эриксон: То, на что я пытаюсь ответить, основной вопрос, который у меня есть, похоже, что все облачные компании сейчас используют или начинают использовать FPGA, верно? Вывод машинного обучения как услуга. Почему они используют FPGA?
Джон Кон: Для гибкости. Логику можно настроить под рабочую нагрузку. Я лично верю, как специалист по аппаратному обеспечению, что это изменится. Мы просто на новом пороге. Там, где вам нужна эта гибкость. Рабочие нагрузки, которые происходят для логического вывода. В таких вещах, как вывод, есть нюансы. Когда вы на самом деле оказываетесь в мире, где вы делаете что-то вроде GAN, обобщенной состязательной сети. То, что мы назвали бы логическим выводом, на самом деле содержит в себе немало опережающих вычислений, вычислений. Вам нужно ускорение на выходе. Вы не просто делаете простой пас вперед.
Такие вещи новые. Мы не знаем, как должно выглядеть это оборудование. Лично я считаю, что в конце концов мы сможем выбрать пару классов. В конечном итоге это будет своего рода комбинация более крупных компонентов и в конечном итоге специализированного кремния. Но я силиконовый парень!
Джон Макки, генеральный директор Whole Foods Market, дочерней компании Amazon, является членом совета директоров The Motley Fool. Сюзанна Фрей, исполнительный директор Alphabet, является членом совета директоров The Motley Fool. Рэнди Цукерберг, бывший директор по развитию рынка и пресс-секретарь Facebook и сестра ее генерального директора Марка Цукерберга, является членом совета директоров The Motley Fool. Саймон Эриксон владеет акциями Amazon, Facebook и NVIDIA. Motley Fool владеет акциями и рекомендует Alphabet (акции A), Alphabet (акции C), Amazon, Facebook и NVIDIA. Motley Fool — это короткие акции IBM. The Motley Fool рекомендует Xilinx. У Motley Fool есть политика раскрытия информации.