O motivo por trás da criação desse repositório é sentir o medo da matemática e fazer o que você deseja fazer no aprendizado de máquina, aprendizado profundo e outros campos da IA.
Neste repo, demonstrei básicos de álgebra, cálculo, estatística e probabilidade. Portanto, tente este código no seu notebook Python, fornecido no curso EDX.
Neste repo, você também aprenderá as bibliotecas essenciais como Numpy, Pandas, Matplotlib ...
Vou fazer upload de um novo material quando achar esses materiais úteis, você também pode me ajudar a manter esse repositório fresco.
Existem muitas razões pelas quais a matemática do aprendizado de máquina é importante e vou destacar alguns deles abaixo:
Selecionando o algoritmo certo, que inclui dar considerações à precisão, tempo de treinamento, complexidade do modelo, número de parâmetros e número de recursos.
Escolhendo configurações de parâmetros e estratégias de validação.
Identificando subajuste e excesso de ajuste, entendendo a troca de viés-variação.
Estimando o intervalo de confiança correto e a incerteza.
Um cientista, Skyler Speakman, disse recentemente que "a álgebra linear é a matemática do século XXI" e eu concordo totalmente com a declaração. No ML, a álgebra linear aparece em todos os lugares. Topics such as Principal Component Analysis (PCA), Singular Value Decomposition (SVD), Eigendecomposition of a matrix, LU Decomposition, QR Decomposition/Factorization, Symmetric Matrices, Orthogonalization & Orthonormalization, Matrix Operations, Projections, Eigenvalues & Eigenvectors, Vector Spaces and Norms são necessários para entender os métodos de otimização usados para a máquina aprendizado. O incrível da álgebra linear é que existem tantos recursos on -line. Eu sempre disse que a sala de aula tradicional está morrendo devido à grande quantidade de recursos disponíveis na Internet. Meu curso de álgebra linear favorito é o oferecido pelo MIT Courseware (Prof. Gilbert Strang).
O aprendizado de máquina e as estatísticas não são campos muito diferentes. Na verdade, alguém recentemente definiu o aprendizado de máquina como 'fazer estatísticas em um Mac'. Algumas das teoria estatística e de probabilidade fundamentais necessárias para a ML são combinatórias, regras de probabilidade e axiomas, teorema de Bayes, variáveis aleatórias, variação e expectativa, distribuições condicionais e articulares, distribuições padrão (Bernoulli, binomial, multinomial, uniforme e gaussiano), momento, momento Geração de funções, estimativa de máxima verossimilhança (MLE), antes e posterior, estimativa máxima a posteriori (MAP) e métodos de amostragem.
Alguns dos tópicos necessários incluem cálculo diferencial e integral, derivados parciais, funções de valores vetoriais, gradiente direcional, distribuição hessiana, jacobiana, laplaciana e lagrangiana.
Isso é importante para entender a eficiência computacional e a escalabilidade do nosso algoritmo de aprendizado de máquina e para explorar a esparsidade em nossos conjuntos de dados. Conhecimento de estruturas de dados (árvores binárias, hash, pilha, pilha etc.), programação dinâmica, algoritmo randomizado e sublinear, gráficos, descidas de gradiente/estocástico e métodos primários-duplos.
Isso é composto por outros tópicos de matemática não abordados nas quatro principais áreas descritas acima. Eles incluem análise real e complexa (conjuntos e sequências, topologia, espaços métricos, funções de valor único e contínuo, limites, kernel de Cauchy, transformadas de Fourier), teoria da informação (entropia, ganho de informação), espaços e coletores de funções.