Мотивом создания этого репо является ощущение страха перед математикой и делать то, что вы хотите делать в машинном обучении, глубоком обучении и других областях ИИ.
В этом репо я продемонстрировал основы алгебры, исчисления, статистики и вероятности. Итак, попробуйте этот код в ноутбуке Python, которая предоставлена в EDX Course.
В этом репо вы также изучите библиотеки, которые необходимы, такие как Numpy, Pandas, Matplotlib ...
Я собираюсь загрузить новый материал, когда найду этот материал полезным, вы также можете помочь мне сохранить этот репо.
Есть много причин, по которым математика машинного обучения важна, и я выделю некоторые из них ниже:
Выбор правильного алгоритма, который включает в себя рассмотрение точности, время обучения, сложность модели, количество параметров и количество функций.
Выбор параметров и стратегии проверки.
Определение недооценки и переосмысления путем понимания компромисса-варианта предвзятости.
Оценка правильного доверительного интервала и неопределенности.
Ученый, Скайлер Спикман, недавно сказал, что «линейная алгебра - это математика 21 -го века», и я полностью согласен с этим заявлением. В ML линейная алгебра появляется везде. Такие темы, как анализ основных компонентов (PCA), разложение единственного значения (SVD), собственное составление матрицы, декомпозиция Lu, QR -разложение/факторизация, симметричные матрицы, ортогонализация и ортонормализация, операции матрицы, про -проюзы, эйгенвизии и эйгенвекторы, векторы и нормы. необходимы для понимания методов оптимизации, используемых для машинного обучения. Удивительная вещь в линейной алгебре заключается в том, что есть так много онлайн -ресурсов. Я всегда говорил, что традиционный класс умирает из -за огромного количества ресурсов, доступных в Интернете. Мой любимый курс линейной алгебры - это тот, который предлагается MIT Courseware (профессор Гилберт Странг).
Машинное обучение и статистика не совсем разные поля. На самом деле, кто -то недавно определил машинное обучение как «выполнение статистики на Mac». Некоторые из фундаментальной статистической теории и теории вероятностей, необходимых для ML, - это комбинаторика, правила вероятности и аксиомы, теорема Байеса, случайные переменные, дисперсия и ожидания, условные и совместные распределения, стандартные распределения (Бернулли, Биномиальные, Многономиальные, Единые и Гауссы), момент Генерирующие функции, оценка максимального правдоподобия (MLE), предшествующая и задняя, максимальная апостериорная оценка (Карта) и методы отбора проб.
Некоторые из необходимых тем включают дифференциальное и интегральное исчисление, частичные производные, функции векторных значений, градиент направления, гессанский, якобианский, лапласианский и Лагранжский распределение.
Это важно для понимания вычислительной эффективности и масштабируемости нашего алгоритма машинного обучения и для использования разреженности в наших наборах данных. Необходимы знание структур данных (двоичные деревья, хеширование, куча, стек и т. Д.), Динамическое программирование, рандомизированное и сублиевое алгоритм, графики, градиент/стохастические спуски и первичные двойные методы.
Это состоит из других математических тем, не охваченных четырьмя основными областями, описанными выше. Они включают в себя реальный и сложный анализ (наборы и последовательности, топологию, метрические пространства, однозначные и непрерывные функции, ограничения, ядро Cauchy, преобразования Фурье), теорию информации (энтропия, усиление информации), функциональные пространства и многообразии.