4 просмотров

История искусственного интеллекта

меню

Искусственный интеллект (ИИ) — это молодая шестидесятилетняя дисциплина, представляющая собой набор наук, теорий и методов (включая математическую логику, статистику, теории вероятностей, вычислительную нейробиологию, информатику), целью которых является имитация когнитивных способностей человека.Начатые в разгар Второй мировой войны, его разработки тесно связаны с разработками в области вычислительной техники и привели к тому, что компьютеры стали выполнять все более сложные задачи, которые раньше можно было делегировать только человеку.

Однако эта автоматизация по-прежнему далека от человеческого разума в строгом смысле слова, что делает это название открытым для критики со стороны некоторых экспертов. Конечная стадия их исследований («сильный» ИИ, т. е. способность контекстуализировать совершенно разные специализированные задачи совершенно автономным образом) абсолютно несопоставима с текущими достижениями («слабые» или «умеренные» ИИ, чрезвычайно эффективные в своем обучении). поле). «Сильный» ИИ, который еще только материализовался в научной фантастике, потребует достижений в фундаментальных исследованиях (а не только улучшения производительности), чтобы иметь возможность моделировать мир в целом.

Однако с 2010 года эта дисциплина пережила новый бум, в основном из-за значительного улучшения вычислительной мощности компьютеров и доступа к огромным объемам данных.

Обещания, обновленные, и опасения, иногда надуманные, усложняют объективное понимание явления. Краткие исторические напоминания могут помочь определить местонахождение дисциплины и дать информацию для текущих дебатов.

1940–1960: рождение ИИ на волне кибернетики

Период между 1940 и 1960 годами был отмечен сочетанием технологических достижений (ускорителем которых была Вторая мировая война) и желанием понять, как объединить функционирование машин и органических существ. Для Норберта Винера, пионера кибернетики, цель состояла в том, чтобы объединить математическую теорию, электронику и автоматизацию в «цельную теорию управления и связи как у животных, так и у машин». Незадолго до этого первая математическая и компьютерная модель биологического нейрона (формального нейрона) была разработана Уорреном Маккаллохом и Уолтером Питтсом еще в 1943 году.

Статья в тему:  Каковы различные типы обучения в искусственном интеллекте

В начале 1950-х годов Джон фон Нейман и Алан Тьюринг не придумали термин ИИ, но были отцами-основателями стоящей за ним технологии: они совершили переход от компьютеров к десятичной логике 19-го века (которая, таким образом, имела дело со значениями от 0 до 9). ) и машин для бинарной логики (которые полагаются на булеву алгебру, имеющую дело с более или менее важными цепочками 0 или 1). Таким образом, два исследователя формализовали архитектуру наших современных компьютеров и продемонстрировали, что это универсальная машина, способная выполнять то, что запрограммировано. Тьюринг, с другой стороны, впервые поднял вопрос о возможном интеллекте машины в своей знаменитой статье 1950 года «Вычислительные машины и интеллект» и описал «игру в имитацию», в которой человек должен уметь различать телетайпный диалог, разговаривает ли он с человеком или с машиной. Какой бы противоречивой ни была эта статья (этот «тест Тьюринга», по-видимому, не подходит для многих экспертов), ее часто будут цитировать как источник вопроса о границе между человеком и машиной.

Термин «ИИ» можно приписать Джону Маккарти из MIT (Массачусетский технологический институт), который Марвин Мински (Университет Карнеги-Меллона) определяет как «создание компьютерных программ, которые выполняют задачи, которые в настоящее время более удовлетворительно выполняются людьми». потому что они требуют умственных процессов высокого уровня, таких как: перцептивное обучение, организация памяти и критическое мышление. Летняя конференция 1956 года в Дартмутском колледже (финансируемая Рокфеллеровским институтом) считается основателем дисциплины. Успех того, что было не конференцией, а скорее семинаром Только шесть человек, включая Маккарти и Мински, постоянно присутствовали на протяжении всей этой работы (которая в основном основывалась на разработках, основанных на формальной логике).

Статья в тему:  Какие мероприятия для детей об искусственном интеллекте

В то время как технология оставалась увлекательной и многообещающей (см., например, статью 1963 года Рида К. Лолора, члена Калифорнийской коллегии адвокатов, озаглавленную «Что могут сделать компьютеры: анализ и прогнозирование судебных решений»), популярность технологии упала. в начале 1960-х. У машин было очень мало памяти, что затрудняло использование компьютерного языка. Однако уже сегодня существовали некоторые основы, такие как деревья решений для решения задач: IPL, язык обработки информации, позволил, таким образом, уже в 1956 году написать программу LTM (машина теоретико-логической теории), предназначенную для демонстрации математических теоремы.

Герберт Саймон, экономист и социолог, в 1957 году предсказал, что ИИ удастся обыграть человека в шахматы в ближайшие 10 лет, но затем ИИ вступил в первую зиму. Видение Саймона оказалось верным. 30 лет спустя.

1980-1990: Экспертные системы

В 1968 году Стэнли Кубрик снял фильм «Космическая одиссея 2001 года», в котором компьютер — HAL 9000 (всего одна буква от компьютеров IBM) резюмирует в себе всю сумму этических вопросов, поставленных ИИ: будет ли он представлять собой высокий уровень сложности, благо для человечества или опасность? Воздействие фильма, естественно, не будет научным, но оно будет способствовать популяризации темы, как и писатель-фантаст Филип К. Дик, который никогда не перестанет задаваться вопросом, испытают ли когда-нибудь машины эмоции.

Именно с появлением первых микропроцессоров в конце 1970-х ИИ снова взлетел и вступил в золотой век экспертных систем.

Статья в тему:  Кто такой специалист по искусственному интеллекту

Путь фактически был открыт в Массачусетском технологическом институте в 1965 году с DENDRAL (экспертная система, специализирующаяся на молекулярной химии) и в Стэнфордском университете в 1972 году с MYCIN (система, специализирующаяся на диагностике заболеваний крови и отпускаемых по рецепту лекарств). Эти системы были основаны на «механизме логического вывода», который был запрограммирован как логическое отражение человеческого мышления.Вводя данные, движок выдавал ответы высокого уровня экспертизы.

Обещания предусматривали массовое развитие, но повальное увлечение снова упадет в конце 1980-х, начале 1990-х. Программирование таких знаний на самом деле требовало больших усилий и от 200 до 300 правил, был эффект «черного ящика» там, где он был. непонятно, как рассуждала машина. Таким образом, разработка и обслуживание стали чрезвычайно проблематичными и, прежде всего, стали возможными более быстрыми и многими другими менее сложными и менее дорогими способами. Следует напомнить, что в 1990-е годы термин «искусственный интеллект» стал почти табуированным, а более скромные вариации даже вошли в университетский язык, например «продвинутые вычисления».

Успех Deep Blue (экспертной системы IBM) в мае 1997 года в шахматной партии против Гарри Каспарова исполнил пророчество Герберта Саймона 1957 года 30 лет спустя, но не поддержал финансирование и развитие этой формы ИИ. Работа Deep Blue была основана на систематическом алгоритме грубой силы, где оценивались и взвешивались все возможные ходы. Поражение человека оставалось очень символичным в истории, но Deep Blue на самом деле удалось обработать лишь очень ограниченный периметр (правила шахматной игры), очень далекий от способности моделировать сложность мира.

Статья в тему:  Какие фонды верности инвестируют в искусственный интеллект

С 2010 года: новый расцвет, основанный на массивных данных и новых вычислительных мощностях.

Два фактора объясняют новый бум в этой дисциплине в 2010 году.

— Прежде всего, доступ к огромным объемам данных. Чтобы иметь возможность использовать алгоритмы классификации изображений и распознавания кошек, например, ранее необходимо было самостоятельно проводить выборку. Сегодня простой поиск в Google может найти миллионы.

— Затем открытие очень высокой эффективности компьютерных графических процессоров для ускорения расчета алгоритмов обучения. Поскольку процесс очень итеративный, до 2010 года обработка всей выборки может занять несколько недель.Вычислительная мощность этих карт (способная выполнять более тысячи миллиардов транзакций в секунду) позволила добиться значительного прогресса при ограниченных финансовых затратах (менее 1000 евро на карту).

Это новое технологическое оборудование позволило добиться значительного общественного успеха и увеличило финансирование: в 2011 году Watson, IA IBM, выиграет игры у двух чемпионов Jeopardy! ». В 2012 году Google X (поисковая лаборатория Google) сможет заставить ИИ распознавать кошек на видео. Для этой последней задачи было использовано более 16 000 процессоров, но потенциал необыкновенный: машина учится что-то различать. В 2016 году AlphaGO (искусственный интеллект Google, специализирующийся на играх в го) обыграет чемпионку Европы (Фань Хуэй) и чемпионку мира (Ли Седол), а затем и ее (AlphaGo Zero). Уточним, что в игре го комбинаторика гораздо важнее, чем в шахматах (больше, чем количество частиц во вселенной), и что в ней невозможно получить столь значительные результаты по чистой силе (как у Deep Blue в 1997 году).

Статья в тему:  Как предсказывать без искусственного интеллекта

Откуда взялось это чудо? Полный сдвиг парадигмы от экспертных систем. Подход стал индуктивным: речь идет уже не о правилах кодирования, как для экспертных систем, а о том, чтобы позволить компьютерам самостоятельно обнаруживать их путем корреляции и классификации на основе огромного количества данных.

Среди методов машинного обучения глубокое обучение кажется наиболее многообещающим для ряда приложений (включая распознавание голоса или изображений). В 2003 году Джеффри Хинтон (Университет Торонто), Йошуа Бенжио (Университет Монреаля) и Ян ЛеКун (Университет Нью-Йорка) решили начать исследовательскую программу по обновлению нейронных сетей. Эксперименты, проведенные одновременно в Microsoft, Google и IBM с помощью лаборатории Торонто в Хинтоне, показали, что этому типу обучения удалось вдвое снизить количество ошибок при распознавании речи. Аналогичные результаты были достигнуты командой Хинтона по распознаванию изображений.

За одну ночь подавляющее большинство исследовательских групп обратились к этой технологии с неоспоримыми преимуществами. Этот тип обучения также позволил добиться значительного прогресса в распознавании текста, но, по мнению таких экспертов, как Янн ЛеКун, до создания систем понимания текста еще далеко. Диалоговые агенты хорошо иллюстрируют эту проблему: наши смартфоны уже умеют расшифровывать инструкции, но не могут полностью контекстуализировать их и анализировать наши намерения.

голоса
Рейтинг статьи
Ссылка на основную публикацию
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x