PENGHENTIAN PROYEK. Proyek ini tidak lagi dikelola oleh Intel. Intel tidak akan memberikan atau menjamin pengembangan atau dukungan untuk proyek ini, termasuk namun tidak terbatas pada, pemeliharaan, perbaikan bug, rilis atau pembaruan baru. Patch pada proyek ini tidak lagi diterima oleh Intel. Jika Anda masih memiliki kebutuhan untuk menggunakan proyek ini, tertarik untuk mengembangkannya secara mandiri, atau ingin mempertahankan patch untuk komunitas, silakan buat cabang proyek Anda sendiri.
neon adalah kerangka pembelajaran mendalam referensi Intel yang berkomitmen untuk kinerja terbaik di semua perangkat keras. Dirancang untuk kemudahan penggunaan dan ekstensibilitas.
Untuk iterasi cepat dan eksplorasi model, neon memiliki performa tercepat di antara pustaka pembelajaran mendalam (kecepatan 2x cuDNNv4, lihat tolok ukur).
Kami menggunakan neon secara internal di Intel Nervana untuk menyelesaikan masalah pelanggan kami di banyak domain. Kami merekrut beberapa peran. Lamar di sini!
Lihat fitur-fitur baru di rilis terbaru kami. Kami ingin menyoroti bahwa neon v2.0.0+ telah dioptimalkan untuk kinerja yang jauh lebih baik pada CPU dengan mengaktifkan Intel Math Kernel Library (MKL). Komponen DNN (Deep Neural Networks) MKL yang digunakan oleh neon disediakan secara gratis dan diunduh secara otomatis sebagai bagian dari instalasi neon.
Pada mesin Mac OSX atau Linux, masukkan yang berikut ini untuk mengunduh dan menginstal neon (pengguna conda melihat panduannya), dan menggunakannya untuk melatih perceptron multi-layer pertama Anda. Untuk memaksa instalasi python2 atau python3, ganti make
di bawah ini dengan make python2
atau make python3
.
git clone https://github.com/NervanaSystems/neon.git
cd neon
make
. .venv/bin/activate
Dimulai setelah neon v2.2.0, cabang master neon akan diperbarui setiap minggu dengan pekerjaan yang sedang berlangsung menuju rilis berikutnya. Periksa tag rilis (misalnya, "git checkout v2.2.0") untuk rilis stabil. Atau cukup periksa tag rilis "terbaru" untuk mendapatkan rilis stabil terbaru (yaitu, "git checkout terbaru")
Dari versi 2.4.0, kami mengaktifkan kembali instalasi pip. Neon dapat diinstal menggunakan nama paket nervananeon.
pip install nervananeon
Perlu dicatat bahwa aeon perlu diinstal secara terpisah. Rilis terbaru v2.6.0 menggunakan aeon v1.3.0.
Peringatan
Antara neon v2.1.0 dan v2.2.0, format file manifes aeon telah diubah. Saat memperbarui dari neon <v2.2.0, manifes harus dibuat ulang menggunakan skrip penyerapan (dalam folder contoh) atau diperbarui menggunakan skrip ini.
python examples/mnist_mlp.py
Backend GPU dipilih secara default, jadi perintah di atas setara dengan jika sumber daya GPU yang kompatibel ditemukan di sistem:
python examples/mnist_mlp.py -b gpu
Jika tidak ada GPU yang tersedia, backend CPU (MKL) yang dioptimalkan kini dipilih secara default mulai neon v2.1.0, yang berarti perintah di atas sekarang setara dengan:
python examples/mnist_mlp.py -b mkl
Jika Anda tertarik untuk membandingkan backend mkl default dengan backend CPU yang tidak dioptimalkan, gunakan perintah berikut:
python examples/mnist_mlp.py -b cpu
Alternatifnya, file yaml dapat digunakan untuk menjalankan contoh.
neon examples/mnist_mlp.yaml
Untuk memilih backend tertentu dalam file yaml, tambahkan atau ubah baris yang berisi backend: mkl
untuk mengaktifkan mkl backend, atau backend: cpu
untuk mengaktifkan cpu backend. Backend GPU dipilih secara default jika GPU tersedia.
Perpustakaan Intel Math Kernel memanfaatkan kemampuan paralelisasi dan vektorisasi sistem Intel Xeon dan Xeon Phi. Ketika hyperthreading diaktifkan pada sistem, kami merekomendasikan pengaturan KMP_AFFINITY berikut untuk memastikan thread paralel dipetakan 1:1 ke inti fisik yang tersedia.
export OMP_NUM_THREADS= < Number of Physical Cores >
export KMP_AFFINITY=compact,1,0,granularity=fine
atau
export OMP_NUM_THREADS= < Number of Physical Cores >
export KMP_AFFINITY=verbose,granularity=fine,proclist=[0- < Number of Physical Cores > ],explicit
Untuk informasi lebih lanjut tentang KMP_AFFINITY, silakan periksa di sini. Kami mendorong pengguna untuk mulai mencoba dan menetapkan pengaturan kinerja terbaik mereka sendiri.
Dokumentasi lengkap untuk neon tersedia di sini. Beberapa titik awal yang berguna adalah:
Untuk bug atau permintaan fitur apa pun, silakan:
Untuk pertanyaan dan diskusi lainnya, silakan kirim pesan ke grup Google pengguna neon
Kami merilis neon di bawah Lisensi open source Apache 2.0. Kami menyambut Anda untuk menghubungi kami dengan kasus penggunaan Anda.