Вся математика, которую вам нужно знать об искусственном интеллекте
Джейсон Дсуза
Я исследователь ИИ, и я получил довольно много писем с вопросами, сколько математики требуется для искусственного интеллекта.
не буду лгать: это много математики.
И это одна из причин, по которой ИИ отталкивает многих новичков. После долгих исследований и переговоров с несколькими ветеранами в этой области я составил это серьезное руководство, которое охватывает все основы математики, которые вам необходимо знать.
Упомянутые ниже концепции обычно рассматриваются в течение нескольких семестров в колледже, но я свел их к основным принципам, на которых вы можете сосредоточиться.
Это руководство является абсолютным спасением для начинающих, так что вы можете изучать самые важные темы. Но это еще лучший ресурс для практиков, таких как я, которым требуется быстрое ознакомление с этими концепциями.
Примечание. Вам не нужно знать все концепции (ниже), чтобы получить свою первую работу в сфере ИИ. Все, что вам нужно, это твердая хватка основ. Сосредоточьтесь на них и закрепите их.
Вы также можете найти эти ресурсы на моем Github: Jason's AI Math Roadmap.
1. Алгебра, которую нужно знать для ИИ
Знание алгебры, возможно, имеет фундаментальное значение для математики в целом. Помимо математических операций, таких как сложение, вычитание, умножение и деление, вам необходимо знать следующее:
2. Линейная алгебра, которую нужно знать для ИИ
Линейная алгебра является основным инструментом математических вычислений в области искусственного интеллекта и во многих других областях науки и техники. В этом поле вам нужно понимать 4 основных математических объекта и их свойства:
- Скаляры — единственное число (может быть действительным или натуральным).
- Векторы — список номеров, расположенных по порядку. Рассматривайте их как точки в пространстве, где каждый элемент представляет собой координату вдоль оси.
- Матрицы — двумерный массив чисел, где каждое число идентифицируется двумя индексами.
- Тензоры — N-D массив (N>2) чисел, расположенных на регулярной сетке с N-осями. Важно в машинном обучении, глубоком обучении и компьютерном зрении.
- Собственные векторы и собственные значения — специальные векторы и соответствующие им скалярные величины. Поймите значение и как их найти.
- Разложение по сингулярным значениям — разложение матрицы на 3 матрицы. Ознакомьтесь со свойствами и приложениями.
- Анализ главных компонентов (PCA) — понять значение, свойства и приложения.
Также полезно знать такие свойства, как скалярное произведение, векторное произведение и произведение Адамара.
3. Расчет, который вам нужно знать для ИИ
Исчисление имеет дело с изменениями параметров, функций, ошибок и приближений. Практические знания многомерного исчисления необходимы в искусственном интеллекте.
Ниже приведены наиболее важные понятия (хотя и не исчерпывающие) в исчислении:
- Производные — правила (сложение, произведение, цепное правило и т. д.), гиперболические производные (танх, кош и т. д.) и частные производные.
- Векторное/матричное исчисление — различные производные операторы (градиент, якобиан, гессиан и лапласиан)
- Градиентные алгоритмы — локальные/глобальные максимумы и минимумы, седловые точки, выпуклые функции, пакеты и мини-пакеты, стохастический градиентный спуск и сравнение производительности.
4. Статистика и концепции вероятности, которые вам нужно знать для ИИ
Эта тема, вероятно, займет значительную часть вашего времени. Хорошие новости: эти концепции несложны, поэтому нет причин, по которым вам не следует их осваивать.
- Основная статистика — Среднее значение, медиана, мода, дисперсия, ковариация и т. д.
- Основные правила вероятности — события (зависимые и независимые), выборочные пространства, условная вероятность.
- Случайные переменные — непрерывное и дискретное, математическое ожидание, дисперсия, распределения (совместное и условное).
- Теорема Байеса — вычисляет обоснованность убеждений. Байесовское программное обеспечение помогает машинам распознавать закономерности и принимать решения.
- Оценка максимального правдоподобия (MLE) — оценка параметров. Требуется знание основных концепций вероятности (совместная вероятность и независимость событий).
- Общие дистрибутивы — биномиальная, пуассоновская, бернуллиевская, гауссовская, экспоненциальная.
5. Концепции теории информации, которые необходимо знать для ИИ
Это важная область, которая внесла значительный вклад в ИИ и глубокое обучение, и до сих пор неизвестна многим. Думайте об этом как об объединении исчисления, статистики и вероятности.
- Энтропия — также называется энтропией Шеннона. Используется для измерения неопределенности в эксперименте.
- Кросс-энтропия — сравнивает два распределения вероятностей и говорит нам, насколько они похожи.
- Дивергенция Кульбака-Лейблера — еще одна мера того, насколько похожи два распределения вероятностей.
- Алгоритм Витерби — широко используется в обработке естественного языка (NLP) и речи.
- Кодер-декодер— используется в RNN машинного перевода и других моделях.
Математика — это весело!
Если вас пугает простое упоминание «математики», вы, вероятно, не получите большого удовольствия от искусственного интеллекта.
Но если вы готовы потратить время на то, чтобы улучшить свое знакомство с принципами, лежащими в основе исчисления, линейной алгебры, статистики и вероятности, ничто — даже математика — не должно мешать вам осваивать ИИ.
ПС: математика В самом деле это весело. По мере того, как вы углубляетесь в математику, убедитесь, что вы понимаете красоту определенной математической концепции и как это на что-то влияет. Скоро вы разделите безудержную страсть, которую испытывают многие математики и ученые в области искусственного интеллекта!
Совет: относитесь к математическим концепциям как к плате по мере использования: всякий раз, когда всплывает чужая концепция, хватайте ее и поглощайте! Приведенное выше руководство представляет собой минимальный, но всеобъемлющий ресурс для понимания любой темы или концепции ИИ.
Не забудьте подписаться на меня в Твиттере, чтобы быть в курсе будущих статей. Приятного обучения!