ONNX Runtime adalah akselerator pembelajaran mesin inferensi dan pelatihan lintas platform .
Inferensi ONNX Runtime dapat memungkinkan pengalaman pelanggan yang lebih cepat dan biaya yang lebih rendah, mendukung model dari kerangka pembelajaran mendalam seperti PyTorch dan TensorFlow/Keras serta perpustakaan pembelajaran mesin klasik seperti scikit-learn, LightGBM, XGBoost, dll. ONNX Runtime kompatibel dengan berbagai perangkat keras, driver, dan sistem operasi, serta memberikan kinerja optimal dengan memanfaatkan akselerator perangkat keras jika memungkinkan, bersamaan dengan pengoptimalan dan transformasi grafik. Pelajari lebih lanjut →
Pelatihan ONNX Runtime dapat mempercepat waktu pelatihan model pada GPU NVIDIA multi-node untuk model transformator dengan tambahan satu baris untuk skrip pelatihan PyTorch yang ada. Pelajari lebih lanjut →
Informasi Umum : onnxruntime.ai
Dokumentasi dan tutorial penggunaan : onnxruntime.ai/docs
Tutorial video YouTube : youtube.com/@ONNXRuntime
Peta Jalan Rilis Mendatang
Repositori sampel pendamping :
Sistem | Kesimpulan | Pelatihan |
---|---|---|
jendela | ||
Linux | ||
Mac | ||
Android | ||
iOS | ||
jaring | ||
Lainnya |
Proyek ini diuji dengan BrowserStack.
Sistem | Kesimpulan | Pelatihan |
---|---|---|
Linux |
Rilis saat ini dan rilis sebelumnya dapat ditemukan di sini: https://github.com/microsoft/onnxruntime/releases.
Untuk detail tentang rilis mendatang, termasuk tanggal rilis, pengumuman, fitur, dan panduan dalam mengirimkan permintaan fitur, silakan kunjungi peta jalan rilis: https://onnxruntime.ai/roadmap.
Distribusi Windows pada proyek ini mungkin mengumpulkan data penggunaan dan mengirimkannya ke Microsoft untuk membantu meningkatkan produk dan layanan kami. Lihat pernyataan privasi untuk lebih jelasnya.
Kami menyambut kontribusi! Silakan lihat pedoman kontribusi.
Untuk permintaan fitur atau laporan bug, harap ajukan Masalah GitHub.
Untuk diskusi umum atau pertanyaan, silakan gunakan Diskusi GitHub.
Proyek ini telah mengadopsi Kode Etik Sumber Terbuka Microsoft. Untuk informasi lebih lanjut lihat FAQ Pedoman Perilaku atau hubungi [email protected] jika ada pertanyaan atau komentar tambahan.
Proyek ini dilisensikan di bawah Lisensi MIT.