| Hyperparameter-Tuning | Suche nach neuronaler Architektur | Modellkomprimierung |
Algorithmen | - Umfangreiche Suche
- Heuristische Suche
- Glühen
- Evolution
- Hyperband
- PBT
- Bayesianische Optimierung
- BOHB
- DNGO
- Hausarzt
- Métis
- SMAC
- TPE
| - Mehrfachversuch
- Rastersuche
- Richtlinienbasiertes RL
- Zufällig
- Regularisierte Evolution
- TPE
- One-Shot
- DARTS
- ENAS
- FBNet
- ProxylessNAS
- SPOS
| - Beschneidung
- Ebene
- L1-Norm
- Taylor FO-Gewicht
- Bewegung
- AGP
- Automatische Komprimierung
- Mehr...
- Quantisierung
- Naiv
- QAT
- LSQ
- Beobachter
- DoReFa
- BNN
|
| Unterstützte Frameworks | Schulungsdienstleistungen | Tutorials |
Unterstützt | - PyTorch
- TensorFlow
- Scikit-lernen
- XGBoost
- LightGBM
- MXNet
- Kaffee2
- Mehr...
| - Lokaler Computer
- Remote-SSH-Server
- Azure Machine Learning (AML)
- Kubernetes-basiert
- OpenAPI
- Kubeflow
- FrameworkController
- AdaptDL
- PAI-DLC
- Hybride Schulungsdienstleistungen
| - HPO
- NAS
- Kompression
- Beschneidung
- Schnittbeschleunigung
- Quantisierung
- Quantisierungsbeschleunigung
|
Ressourcen
- NNI-Dokumentations-Homepage
- NNI-Installationsanleitung
- NNI-Beispiele
- Python-API-Referenz
- Veröffentlichungen (Änderungsprotokoll)
- Verwandte Forschung und Veröffentlichungen
- Youtube-Kanal von NNI
- Bilibili-Raum von NNI
- Webinar zur Einführung in Retiarii: Ein Deep-Learning-Explorations-Trainingsrahmen für NNI
- Community-Diskussionen
Beitragsrichtlinien
Wenn Sie einen Beitrag zu NNI leisten möchten, lesen Sie unbedingt die Beitragsrichtlinien, die Anweisungen zum Einreichen von Rückmeldungen, bewährte Kodierungspraktiken und einen Verhaltenskodex enthalten.
Wir verwenden GitHub-Probleme, um Tracking-Anfragen und Fehler zu verfolgen. Für allgemeine Fragen und neue Ideen nutzen Sie bitte die NNI-Diskussion. Bei Fragen zu bestimmten Anwendungsfällen gehen Sie bitte zu Stack Overflow.
Die Teilnahme an Diskussionen über die folgenden IM-Gruppen ist ebenfalls willkommen.
Gitter | | WeChat |
---|
| ODER | |
In den letzten Jahren hat NNI Tausende von Rückmeldungen zu GitHub-Problemen und Pull-Anfragen von Hunderten von Mitwirkenden erhalten. Wir freuen uns über alle Beiträge der Community, um NNI erfolgreich zu machen.
Teststatus
Wesentliches
Typ | Status |
---|
Schneller Test | |
Vollständiger Test – HPO | |
Vollständiger Test – NAS | |
Vollständiger Test – Komprimierung | |
Schulungsdienstleistungen
Typ | Status |
---|
Lokal - Linux | |
Lokal - Fenster | |
Remote - Linux zu Linux | |
Fernbedienung – Windows zu Windows | |
OpenPAI | |
Frameworkcontroller | |
Kubeflow | |
Hybrid | |
AzureML | |
Verwandte Projekte
Mit dem Ziel der Offenheit und der Weiterentwicklung modernster Technologie hatte Microsoft Research (MSR) auch einige andere Open-Source-Projekte veröffentlicht.
- OpenPAI: eine Open-Source-Plattform, die vollständige KI-Modellschulungs- und Ressourcenverwaltungsfunktionen bietet, leicht erweiterbar ist und On-Premise-, Cloud- und Hybridumgebungen in verschiedenen Größenordnungen unterstützt.
- FrameworkController: ein universeller Open-Source-Kubernetes-Pod-Controller, der alle Arten von Anwendungen auf Kubernetes über einen einzigen Controller orchestriert.
- MMdnn: Eine umfassende, rahmenübergreifende Lösung zur Konvertierung, Visualisierung und Diagnose tiefer neuronaler Netzwerkmodelle. Das „MM“ in MMdnn steht für Model Management und „dnn“ ist ein Akronym für Deep Neural Network.
- SPTAG: Space Partition Tree And Graph (SPTAG) ist eine Open-Source-Bibliothek für groß angelegte vektornahe Suchszenarien für den nächsten Nachbarn.
- nn-Meter: Ein genauer Inferenzlatenz-Prädiktor für DNN-Modelle auf verschiedenen Edge-Geräten.
Wir ermutigen Forscher und Studenten, diese Projekte zu nutzen, um die KI-Entwicklung und -Forschung zu beschleunigen.
Lizenz
Die gesamte Codebasis steht unter MIT-Lizenz.
Expandieren