| Ajuste de hiperparâmetros | Pesquisa de arquitetura neural | Compressão de modelo |
Algoritmos | - Pesquisa exaustiva
- Pesquisa em grade
- Aleatório
- Pesquisa heurística
- Recozir
- Evolução
- Hiperbanda
- PBT
- Otimização bayesiana
- BOHB
- DNGO
- GP
- Métis
- SMAC
- TPE
| - Multi-teste
- Pesquisa em grade
- RL baseado em políticas
- Aleatório
- Evolução Regularizada
- TPE
- Um tiro
- DARDOS
- ENAS
- FBNet
- NAS sem proxy
- SPOS
| - Poda
- Nível
- Norma L1
- Peso Taylor FO
- Movimento
- AGP
- Compressão automática
- Mais...
- Quantização
- Ingênuo
- QAT
- LSQ
- Observador
- DoReFa
- BNN
|
| Estruturas suportadas | Serviços de treinamento | Tutoriais |
Suporta | - PyTorch
- TensorFlow
- Scikit-aprender
- XGBoost
- LightGBM
- MXNet
- Café2
- Mais...
| - Máquina local
- Servidores SSH remotos
- Aprendizado de Máquina do Azure (AML)
- Baseado em Kubernetes
- API aberta
- Kubeflow
- FrameworkController
- AdaptDL
- DLC PAI
- Serviços de treinamento híbrido
| - HPO
- NAS
- Compressão
- Poda
- Aceleração de poda
- Quantização
- Aceleração de quantização
|
Recursos
- Página inicial de documentação do NNI
- Guia de instalação NNI
- Exemplos de NNI
- Referência da API Python
- Lançamentos (registo de alterações)
- Pesquisas e publicações relacionadas
- Canal do Youtube da NNI
- Espaço Bilibili do NNI
- Webinar de introdução ao Retiarii: uma estrutura de treinamento exploratório de aprendizagem profunda em NNI
- Discussões da comunidade
Diretrizes de contribuição
Se você quiser contribuir para o NNI, certifique-se de revisar as diretrizes de contribuição, que incluem instruções para envio de feedbacks, melhores práticas de codificação e código de conduta.
Usamos problemas do GitHub para rastrear solicitações de rastreamento e bugs. Por favor, use a discussão NNI para perguntas gerais e novas ideias. Para questões de casos de uso específicos, acesse Stack Overflow.
A participação em discussões através dos seguintes grupos de IM também é bem-vinda.
Gitter | | WeChat |
---|
| OU | |
Nos últimos anos, a NNI recebeu milhares de feedbacks sobre problemas do GitHub e recebeu solicitações de centenas de colaboradores. Agradecemos todas as contribuições da comunidade para fazer o NNI prosperar.
Status do teste
Fundamentos
Tipo | Status |
---|
Teste rápido | |
Teste completo - HPO | |
Teste completo - NAS | |
Teste completo - compressão | |
Serviços de treinamento
Tipo | Status |
---|
Locais - linux | |
Local - janelas | |
Remoto - linux para linux | |
Remoto - janelas para janelas | |
OpenPAI | |
Controlador de estrutura | |
Kubeflow | |
Híbrido | |
AzureML | |
Projetos Relacionados
Visando a abertura e o avanço da tecnologia de ponta, a Microsoft Research (MSR) também lançou alguns outros projetos de código aberto.
- OpenPAI: uma plataforma de código aberto que fornece treinamento completo de modelos de IA e recursos de gerenciamento de recursos, é fácil de estender e oferece suporte a ambientes locais, em nuvem e híbridos em várias escalas.
- FrameworkController: um controlador de pod Kubernetes de uso geral de código aberto que orquestra todos os tipos de aplicativos no Kubernetes por um único controlador.
- MMdnn: uma solução abrangente e de estrutura cruzada para converter, visualizar e diagnosticar modelos de redes neurais profundas. O “MM” em MMdnn significa gerenciamento de modelo e “dnn” é um acrônimo para rede neural profunda.
- SPTAG: Space Partition Tree And Graph (SPTAG) é uma biblioteca de código aberto para cenário de pesquisa de vizinho mais próximo aproximado de vetor em grande escala.
- nn-Meter: Um preditor de latência de inferência preciso para modelos DNN em diversos dispositivos de borda.
Incentivamos pesquisadores e estudantes a aproveitarem esses projetos para acelerar o desenvolvimento e a pesquisa em IA.
Licença
Toda a base de código está sob licença do MIT.
Expandir