Человек, работающий в сфере ИИ и не знающий математики, подобен политику, который не умеет убеждать. У обоих есть неизбежная область для работы!
Неделю назад я написал статью «Как заняться наукой о данных в 2021 году» и с тех пор получил несколько электронных писем от людей со всего мира, в которых они спрашивали , сколько математики требуется в науке о данных.
Не буду врать: здесь много математики .
И это одна из причин, которая отпугивает многих новичков. После долгих исследований и бесед с несколькими ветеранами в этой области я составил это серьезное руководство, которое охватывает все основы математики, которые вам необходимо знать . Концепции, упомянутые ниже, обычно изучаются в колледже в течение нескольких семестров, но я свел их к основным принципам, на которых вы можете сосредоточиться.
Это руководство является настоящим спасением для новичков, поскольку вы можете изучить наиболее важные темы, и еще лучшим ресурсом для таких практиков, как я, которым требуется быстрое ознакомление с этими концепциями.
Примечание . Вам не обязательно знать все концепции (ниже), чтобы получить свою первую работу в области науки о данных. Все, что вам нужно, это твердое понимание основ. Сосредоточьтесь на них и закрепите их.
Знание алгебры, возможно, имеет фундаментальное значение для математики в целом. Помимо математических операций, таких как сложение, вычитание, умножение и деление, вам необходимо знать следующее:
Экспоненты
Радикалы
Факториалы
Суммирование
Научные обозначения
Линейная алгебра — основной инструмент математических вычислений в искусственном интеллекте и во многих областях науки и техники. При этом необходимо понимать 4 основных математических объекта и их свойства:
Скаляры — одно число (может быть действительным или натуральным).
Векторы — список чисел, расположенных по порядку. Рассматривайте их как точки в пространстве, где каждый элемент представляет координату вдоль оси.
Матрицы — двумерный массив чисел, где каждое число идентифицируется двумя индексами.
Тензоры — массив чисел ND (N>2), расположенный на регулярной сетке с N-осями. Важно в машинном обучении, глубоком обучении и компьютерном зрении.
Собственные векторы и собственные значения — специальные векторы и соответствующие им скалярные величины. Поймите значение и как их найти.
Разложение по сингулярным значениям – разложение матрицы на 3 матрицы. Ознакомьтесь со свойствами и применением.
Анализ главных компонентов (PCA) – понимание значения, свойств и приложений.
Также полезно знать такие свойства, как скалярное произведение, векторное произведение и произведение Адамара.
Исчисление имеет дело с изменениями параметров, функций, ошибок и приближений. Практические знания многомерного исчисления необходимы в науке о данных. Ниже приведены наиболее важные понятия (хотя и не исчерпывающие) в исчислении:
Производные — правила (сложение, произведение, цепное правило и т. д.), гиперболические производные (tanh, cosh и т. д.) и частные производные.
Векторное/матричное исчисление — различные операторы производных (градиент, якобиан, гессиан и лапласиан)
Градиентные алгоритмы — локальные/глобальные максимумы и минимумы, седловые точки, выпуклые функции, пакеты и мини-пакеты, стохастический градиентный спуск и сравнение производительности.
Базовая статистика: среднее значение, медиана, мода, дисперсия, ковариация и т. д.
Основные правила вероятности — события (зависимые и независимые), выборочные пространства, условная вероятность.
Случайные величины - непрерывные и дискретные, математическое ожидание, дисперсия, распределения (совместные и условные).
Теорема Байеса – вычисляет обоснованность убеждений. Байесовское программное обеспечение помогает машинам распознавать закономерности и принимать решения.
Maximum Likelihood Estimation (MLE) – оценка параметра. Требует знания фундаментальных концепций вероятности (совместная вероятность и независимость событий).
Распространенные распределения - биномиальное, пуассоновское, бернулли, гауссовское, экспоненциальное.
Важная область, которая внесла значительный вклад в искусственный интеллект и глубокое обучение и до сих пор многим неизвестна. Его можно рассматривать как объединение исчисления, статистики и вероятности.
Энтропия – также называемая энтропией Шеннона. Используется для измерения неопределенности эксперимента.
Перекрестная энтропия – сравнивает два распределения вероятностей и показывает, насколько они похожи.
Дивергенция Кульбака-Лейблера — еще одна мера того, насколько похожи два распределения вероятностей.
Алгоритм Витерби - широко используется в обработке естественного языка (НЛП) и речи.
Кодер-декодер - используется в RNN машинного перевода и других моделях.
В искусственном интеллекте математика очень важна. Без него это сравнимо с человеческим телом без души. Вы можете относиться к математическим концепциям как к оплате по мере использования: всякий раз, когда появляется иностранная концепция, хватайте ее и пожирайте! Приведенное выше руководство представляет собой минимальный, но всеобъемлющий ресурс для понимания любой темы или концепции искусственного интеллекта.
Удачи!
Если вы считаете, что эту дорожную карту можно улучшить, пожалуйста, откройте PR с любыми обновлениями и сообщайте о любых проблемах. Мы продолжим улучшать это, поэтому вы можете рассмотреть возможность просмотра или добавления в избранное этого репозитория, чтобы вернуться к нему в будущем.
Ознакомьтесь с руководством по вкладу, чтобы узнать, как обновить дорожную карту.
Открыть запрос на включение с улучшениями
Обсуждайте идеи в вопросах
Распространите информацию
Обращайтесь с любым отзывом
Эта дорожная карта была создана Джейсоном Дсоузой и размещена в открытом доступе по лицензии MIT.