Leis de Murphy para aprendizado de máquina e redes neurais
No espírito de “Tudo o que pode dar errado, dará errado”, essas leis capturam as peculiaridades e os desafios de trabalhar com ML e redes neurais no mundo real. Eles derivam dos problemas práticos que enfrentamos quando nossos modelos são colocados em produção.
As Leis
- Lei da Aplicação Crítica : Quanto mais crítica a aplicação, maior a probabilidade de a rede neural falhar na generalização.
- Lei da Complexidade Excessiva : A complexidade de uma rede neural sempre excederá os dados disponíveis.
- Lei da implantação prematura : um modelo de rede neural que leva semanas para ser treinado terá um bug descoberto minutos após a implantação.
- Lei do Inverso da Interpretabilidade : O modelo mais preciso será o menos interpretável.
- Lei da Inconsistência de Hiperparâmetros : Os hiperparâmetros que funcionaram melhor em seu último projeto serão os piores para seu projeto atual.
- Lei da confusão em camadas : Quanto mais camadas você adiciona, menos você entende.
- Lei da supervisão da validação : uma precisão de 99% em seu conjunto de validação geralmente significa que você se esqueceu de incluir uma classe crítica de dados.
- Lei da Arquitetura Cega : Se você não entende a arquitetura, adicionar mais camadas não ajudará.
- Lei da Obsolescência do Modelo : No momento em que você implantar seu modelo de última geração, um novo artigo será publicado tornando-o obsoleto.
- Lei da confiança mal colocada : A confiança de uma rede neural em sua previsão é inversamente proporcional à sua precisão nos momentos mais críticos.
- Lei do último suspiro da GPU : A GPU irá travar minutos antes do final de uma sessão de treinamento de semanas.
- Lei dos ajustes aleatórios : quanto mais você ajusta uma rede neural, mais perto ela fica de ser um gerador de números aleatórios.
- Lei do engano da duração do treinamento : O modelo que levou dias para treinar será superado por um modelo mais simples que levou minutos.
- Lei do atraso na documentação : A documentação da estrutura de rede neural mais recente sempre estará uma versão atrás.
- Lei da Complexidade do Modelo Ironia : Seu modelo mais complexo alcançará desempenho semelhante a uma regressão linear nos mesmos dados.
- Lei da retrospectiva dos hiperparâmetros : Os melhores hiperparâmetros são sempre encontrados depois que você para de pesquisar.
- Lei da Ansiedade de Reprodução : O momento em que você não consegue replicar seus resultados é quando seu chefe os pede.
- Lei das Entradas Inesperadas : Cada rede neural possui um conjunto especial de entradas que farão com que ela se comporte de forma inesperada, e você só as descobrirá na produção.
- Lei dos Erros Simples : Não importa quão avançado seja o modelo, seus erros sempre parecerão tolamente simples para os humanos.
- Lei da Profundidade : Quanto mais profunda a rede, mais evasivo será o problema do gradiente evanescente até a implantação.
- Lei da Recorrência : Seu RNN se lembrará de tudo, exceto o padrão de sequência que é crítico.
- Lei da Memória Bloqueada : No momento em que você decidir que os LSTMs resolveram seus problemas de sequência, seus dados evoluirão para provar que você está errado.
- Lei da Bidirecionalidade : Quando um BiLSTM começa a fazer sentido, suas sequências exigirão atenção em outro lugar.
- Lei da Convolução : O recurso mais crítico estará sempre fora do campo receptivo da sua CNN.
- Lei da recepção local : depois de otimizar meticulosamente o tamanho do kernel da CNN, uma mudança na resolução de entrada o tornará irrelevante.
- Lei da Atenção : Seu modelo atenderá tudo em sequência, exceto a parte mais relevante.
- Lei da Autoatenção : A única vez que um Transformer falhar, ele estará na entrada que você menos esperava.
- Lei da aprendizagem por transferência : Quanto mais específica for sua tarefa, menos transferível será um modelo pré-treinado.
- Lei do Reforço : Seu agente dominará todas as estratégias, exceto aquela que maximiza a recompensa no mundo real.
- Lei da Dinâmica Ambiental : Quando seu modelo RL parecer perfeito, o ambiente repentinamente se tornará não estacionário.
- Lei dos Grandes Modelos : Quanto maior o modelo, mais embaraçoso é o seu erro mais simples.
- Lei da parametrização excessiva : seu modelo mais ajustado generalizará perfeitamente durante o teste, mas falhará miseravelmente no mundo real.
- Lei do Fluxo do Gradiente : A camada onde você mais precisa do gradiente é onde ele desaparecerá.
- Lei da Adaptação da Modalidade : No momento em que você ajusta uma CNN para dados que não sejam de imagem, você encontrará um conjunto de dados onde uma RNA simples o supera.
- Lei da Arquitetura Dinâmica : Quanto mais dinâmica for sua rede, mais difícil será explicar suas falhas repentinas.
- Lei da Robustez Adversária : O ataque adversário para o qual você não se preparou será o primeiro que você encontrará.
- Lei da Multimodalidade : Sempre que você combina tipos de dados, a rede se destacará em um e falhará espetacularmente no outro.
- Lei da Dispersão : Sua rede mais podada perderá a única conexão que é crítica.
- Lei da Plasticidade Neural : No dia seguinte ao reaproveitamento de uma rede neural, ela ansiará por sua tarefa original.
- Lei da Ilusão Supervisionada : Na aprendizagem supervisionada, quanto mais precisamente o seu modelo se ajusta aos dados de treinamento, mais ele acredita que entende o mundo – até encontrar os dados do mundo real.
? Contribuições
Sinta-se à vontade para enviar um PR se encontrar outra “lei” em sua experiência ou se tiver alguma sugestão ou melhoria. Vamos aumentar essa lista juntos e trazer um pouco de humor para nossas lutas diárias de ML.
? Licença
Este repositório está licenciado sob a licença MIT.
Agradecimentos
- Inspirado na Lei de Murphy e na sabedoria (e dor) coletiva dos profissionais de aprendizado de máquina em todos os lugares.
- Agradecimentos especiais à comunidade de ML pelas experiências e insights compartilhados.
- Inspirado na coleção de leis de Murphy no blog da Angelo State University.