Anda dapat menggunakan fastai tanpa instalasi apa pun dengan menggunakan Google Colab. Faktanya, setiap halaman dokumentasi ini juga tersedia sebagai buku catatan interaktif - klik “Buka di colab” di bagian atas halaman mana pun untuk membukanya (pastikan untuk mengubah runtime Colab menjadi “GPU” agar berjalan cepat!) Lihat dokumentasi fast.ai tentang Menggunakan Colab untuk informasi selengkapnya.
Anda dapat menginstal fastai di mesin Anda sendiri dengan conda (sangat disarankan), selama Anda menjalankan Linux atau Windows (NB: Mac tidak didukung). Untuk Windows, silakan lihat “Berjalan di Windows” untuk catatan penting.
Kami merekomendasikan menggunakan miniconda (atau miniforge). Pertama instal PyTorch menggunakan baris conda yang ditunjukkan di sini, lalu jalankan:
conda install -c fastai fastai
Untuk menginstal dengan pip, gunakan: pip install fastai
.
Jika Anda berencana untuk mengembangkan fastai sendiri, atau ingin menjadi yang terdepan, Anda dapat menggunakan instalasi yang dapat diedit (jika Anda melakukan ini, Anda juga harus menggunakan instalasi fastcore yang dapat diedit untuk menyertainya.) Instal terlebih dahulu PyTorch, dan kemudian :
git clone https://github.com/fastai/fastai
pip install -e "fastai[dev]"
Cara terbaik untuk memulai fastai (dan pembelajaran mendalam) adalah dengan membaca buku, dan menyelesaikan kursus gratisnya.
Untuk melihat apa yang dapat dilakukan dengan fastai, lihat Mulai Cepat, yang menunjukkan cara menggunakan sekitar 5 baris kode untuk membuat pengklasifikasi gambar, model segmentasi gambar, model sentimen teks, sistem rekomendasi, dan model tabel. Untuk setiap aplikasi, kodenya hampir sama.
Baca Tutorial untuk mempelajari cara melatih model Anda sendiri pada kumpulan data Anda sendiri. Gunakan bilah sisi navigasi untuk melihat dokumentasi fastai. Setiap kelas, fungsi, dan metode didokumentasikan di sini.
Untuk mempelajari tentang desain dan motivasi perpustakaan, bacalah makalah peer review.
fastai adalah perpustakaan pembelajaran mendalam yang menyediakan komponen tingkat tinggi kepada para praktisi yang dapat dengan cepat dan mudah memberikan hasil canggih dalam domain pembelajaran mendalam standar, dan memberi para peneliti komponen tingkat rendah yang dapat dicampur dan dicocokkan untuk membangun pendekatan baru. Hal ini bertujuan untuk melakukan kedua hal tersebut tanpa kompromi besar dalam hal kemudahan penggunaan, fleksibilitas, atau kinerja. Hal ini dimungkinkan berkat arsitektur berlapis yang cermat, yang mengekspresikan pola dasar umum dari banyak teknik pembelajaran mendalam dan pemrosesan data dalam bentuk abstraksi yang dipisahkan. Abstraksi ini dapat diungkapkan secara ringkas dan jelas dengan memanfaatkan dinamisme bahasa Python yang mendasarinya dan fleksibilitas perpustakaan PyTorch. fastai meliputi:
fastai diatur berdasarkan dua tujuan desain utama: agar mudah didekati dan produktif dengan cepat, sekaligus dapat diretas dan dikonfigurasi secara mendalam. Itu dibangun di atas hierarki API tingkat rendah yang menyediakan blok penyusun yang dapat disusun. Dengan cara ini, pengguna yang ingin menulis ulang bagian dari API tingkat tinggi atau menambahkan perilaku tertentu agar sesuai dengan kebutuhannya tidak perlu mempelajari cara menggunakan tingkat terendah.
Sangat mudah untuk bermigrasi dari PyTorch biasa, Ignite, atau perpustakaan berbasis PyTorch lainnya, atau bahkan menggunakan fastai bersama dengan perpustakaan lain. Secara umum, Anda akan dapat menggunakan semua kode pemrosesan data yang ada, namun akan dapat mengurangi jumlah kode yang diperlukan untuk pelatihan, dan lebih mudah memanfaatkan praktik terbaik modern. Berikut adalah panduan migrasi dari beberapa perpustakaan populer untuk membantu Anda dalam perjalanan:
Karena masalah multiprosesing python pada Jupyter dan Windows, num_workers
dari Dataloader
disetel ulang ke 0 secara otomatis untuk menghindari Jupyter hang. Hal ini membuat tugas-tugas seperti computer vision di Jupyter di Windows berkali-kali lebih lambat dibandingkan di Linux. Batasan ini tidak ada jika Anda menggunakan fastai dari skrip.
Lihat contoh ini untuk memanfaatkan sepenuhnya fastai API di Windows.
Kami merekomendasikan penggunaan Subsistem Windows untuk Linux (WSL) – jika Anda melakukannya, Anda dapat menggunakan pendekatan instalasi Linux biasa, dan Anda tidak akan mengalami masalah apa pun dengan num_workers
.
Untuk menjalankan pengujian secara paralel, luncurkan:
nbdev_test
Agar semua tes dapat lulus, Anda harus menginstal dependensi yang ditentukan sebagai bagian dari dev_requirements di settings.ini
pip install -e .[dev]
Tes ditulis menggunakan nbdev
, misalnya lihat dokumentasi untuk test_eq
.
Setelah Anda mengkloning repositori ini, pastikan Anda telah menjalankan nbdev_install_hooks
di terminal Anda. Ini menginstal Jupyter dan git hooks untuk secara otomatis membersihkan, memercayai, dan memperbaiki konflik penggabungan di buku catatan.
Setelah melakukan perubahan pada repo, Anda harus menjalankan nbdev_prepare
dan membuat perubahan tambahan yang diperlukan agar dapat lulus semua pengujian.
Bagi mereka yang tertarik dengan container buruh pelabuhan resmi untuk proyek ini, mereka dapat ditemukan di sini.