| Réglage des hyperparamètres | Recherche d'architecture neuronale | Compression du modèle |
Algorithmes | - Recherche exhaustive
- Recherche de grille
- Aléatoire
- Recherche heuristique
- Recuire
- Évolution
- Hyperbande
- PBT
- Optimisation bayésienne
- BOHB
- ONGD
- Médecin généraliste
- Métis
- SMAC
- TPE
| - Essais multiples
- Recherche de grille
- RL basé sur des politiques
- Aléatoire
- Evolution régularisée
- TPE
- Un coup
- FLECHETTES
- ENAS
- FBNet
- NAS sans proxy
- SPOS
| - Taille
- Niveau
- Norme L1
- Taylor FO Poids
- Mouvement
- AGP
- Compression automatique
- Plus...
- Quantification
- Naïf
- QAT
- LSQ
- Observateur
- DoReFa
- BNN
|
| Cadres pris en charge | Services de formation | Tutoriels |
Prise en charge | - PyTorch
- TensorFlow
- Scikit-apprendre
- XGBoost
- LumièreGBM
- MXNet
- Café2
- Plus...
| - Appareil local
- Serveurs SSH distants
- Apprentissage automatique Azure (AML)
- Basé sur Kubernetes
- OuvrirAPI
- Kubeflow
- Contrôleur de cadre
- AdaptDL
- PAI DLC
- Services de formation hybrides
| - HPO
- NAS
- Bonjour NAS
- Benchmarks NAS
- Compression
- Taille
- Accélération de l'élagage
- Quantification
- Accélération de la quantification
|
Ressources
- Page d'accueil de la documentation NNI
- Guide d'installation NNI
- Exemples NNI
- Référence de l'API Python
- Versions (journal des modifications)
- Recherches et publications connexes
- Chaîne Youtube de NNI
- Espace Bilibili de NNI
- Webinaire de présentation de Retiarii : un cadre de formation exploratoire d'apprentissage en profondeur sur NNI
- Discussions communautaires
Directives de contribution
Si vous souhaitez contribuer à NNI, assurez-vous de consulter les directives de contribution, qui comprennent des instructions sur la soumission de commentaires, les meilleures pratiques de codage et le code de conduite.
Nous utilisons les problèmes GitHub pour suivre les demandes de suivi et les bugs. Veuillez utiliser NNI Discussion pour les questions générales et les nouvelles idées. Pour des questions sur des cas d'utilisation spécifiques, veuillez consulter Stack Overflow.
La participation aux discussions via les groupes de messagerie instantanée suivants est également la bienvenue.
Gitter | | WeChat |
---|
| OU | |
Au cours des dernières années, NNI a reçu des milliers de retours sur des problèmes GitHub et des demandes d'extraction de centaines de contributeurs. Nous apprécions toutes les contributions de la communauté pour faire prospérer NNI.
Statut des tests
Essentiel
Taper | Statut |
---|
Test rapide | |
Test complet - HPO | |
Test complet - NAS | |
Test complet - compression | |
Prestations de formation
Taper | Statut |
---|
Local - Linux | |
Local - fenêtres | |
À distance - Linux vers Linux | |
À distance - Windows vers Windows | |
OuvrirPAI | |
Contrôleur de cadre | |
Kubeflow | |
Hybride | |
AzureML | |
Projets connexes
Ciblant l'ouverture et l'avancement des technologies de pointe, Microsoft Research (MSR) avait également publié quelques autres projets open source.
- OpenPAI : une plate-forme open source qui fournit des capacités complètes de formation de modèles d'IA et de gestion des ressources, elle est facile à étendre et prend en charge les environnements sur site, cloud et hybrides à différentes échelles.
- FrameworkController : un contrôleur de pod Kubernetes open source à usage général qui orchestre toutes sortes d'applications sur Kubernetes par un seul contrôleur.
- MMdnn : Une solution complète et multi-framework pour convertir, visualiser et diagnostiquer des modèles de réseaux neuronaux profonds. Le « MM » dans MMdnn signifie gestion de modèles et « dnn » est un acronyme pour réseau neuronal profond.
- SPTAG : Space Partition Tree And Graph (SPTAG) est une bibliothèque open source pour un scénario de recherche vectorielle approximative du voisin le plus proche à grande échelle.
- nn-Meter : un prédicteur de latence d'inférence précis pour les modèles DNN sur divers appareils de périphérie.
Nous encourageons les chercheurs et les étudiants à tirer parti de ces projets pour accélérer le développement et la recherche en IA.
Licence
L'intégralité de la base de code est sous licence MIT.
Développer