ONNX Runtime est un accélérateur d'apprentissage automatique d'inférence et de formation multiplateforme .
L'inférence ONNX Runtime peut permettre des expériences client plus rapides et réduire les coûts, en prenant en charge les modèles de frameworks d'apprentissage profond tels que PyTorch et TensorFlow/Keras ainsi que les bibliothèques d'apprentissage automatique classiques telles que scikit-learn, LightGBM, XGBoost, etc. ONNX Runtime est compatible avec différents matériel, pilotes et systèmes d'exploitation, et offre des performances optimales en tirant parti des accélérateurs matériels, le cas échéant, ainsi que des optimisations et des transformations graphiques. En savoir plus →
La formation ONNX Runtime peut accélérer le temps de formation des modèles sur les GPU NVIDIA multi-nœuds pour les modèles de transformateur avec un ajout d'une ligne pour les scripts de formation PyTorch existants. En savoir plus →
Informations générales : onnxruntime.ai
Documentation d'utilisation et tutoriels : onnxruntime.ai/docs
Tutoriels vidéo YouTube : youtube.com/@ONNXRuntime
Feuille de route des versions à venir
Dépôts d'exemples compagnons :
Système | Inférence | Entraînement |
---|---|---|
Fenêtres | ||
Linux | ||
Mac | ||
Androïde | ||
IOS | ||
Web | ||
Autre |
Ce projet est testé avec BrowserStack.
Système | Inférence | Entraînement |
---|---|---|
Linux |
La version actuelle et les versions précédentes peuvent être trouvées ici : https://github.com/microsoft/onnxruntime/releases.
Pour plus de détails sur la version à venir, y compris les dates de sortie, les annonces, les fonctionnalités et des conseils sur la soumission de demandes de fonctionnalités, veuillez consulter la feuille de route de la version : https://onnxruntime.ai/roadmap.
Les distributions Windows de ce projet peuvent collecter des données d'utilisation et les envoyer à Microsoft pour nous aider à améliorer nos produits et services. Consultez la déclaration de confidentialité pour plus de détails.
Nous apprécions les contributions ! Veuillez consulter les directives de contribution.
Pour les demandes de fonctionnalités ou les rapports de bogues, veuillez déposer un problème GitHub.
Pour une discussion générale ou des questions, veuillez utiliser les discussions GitHub.
Ce projet a adopté le code de conduite Microsoft Open Source. Pour plus d’informations, consultez la FAQ sur le code de conduite ou contactez [email protected] pour toute question ou commentaire supplémentaire.
Ce projet est sous licence MIT.