Sie können Fastai ohne Installation verwenden, indem Sie Google Colab verwenden. Tatsächlich ist jede Seite dieser Dokumentation auch als interaktives Notizbuch verfügbar – klicken Sie oben auf einer beliebigen Seite auf „In Colab öffnen“, um sie zu öffnen (stellen Sie sicher, dass Sie die Colab-Laufzeitumgebung auf „GPU“ ändern, damit sie schnell läuft!) Weitere Informationen finden Sie in der fast.ai-Dokumentation zur Verwendung von Colab.
Sie können Fastai mit Conda auf Ihren eigenen Rechnern installieren (sehr empfehlenswert), solange Sie Linux oder Windows verwenden (Hinweis: Mac wird nicht unterstützt). Wichtige Hinweise für Windows finden Sie im Abschnitt „Ausführen unter Windows“.
Wir empfehlen die Verwendung von Miniconda (oder Miniforge). Installieren Sie zuerst PyTorch mit der hier gezeigten Conda-Zeile und führen Sie dann Folgendes aus:
conda install -c fastai fastai
Um mit Pip zu installieren, verwenden Sie: pip install fastai
.
Wenn Sie Fastai selbst entwickeln möchten oder auf dem neuesten Stand sein möchten, können Sie eine bearbeitbare Installation verwenden (wenn Sie dies tun, sollten Sie auch eine bearbeitbare Installation von Fastcore verwenden). Installieren Sie zuerst PyTorch und dann :
git clone https://github.com/fastai/fastai
pip install -e "fastai[dev]"
Der beste Einstieg in Fastai (und Deep Learning) besteht darin, das Buch zu lesen und den kostenlosen Kurs zu absolvieren.
Um zu sehen, was mit Fastai möglich ist, werfen Sie einen Blick auf den Quick Start, der zeigt, wie Sie mit etwa fünf Codezeilen einen Bildklassifikator, ein Bildsegmentierungsmodell, ein Text-Sentiment-Modell, ein Empfehlungssystem und ein Tabellenmodell erstellen. Für jede der Anwendungen ist der Code weitgehend gleich.
Lesen Sie die Tutorials durch, um zu erfahren, wie Sie Ihre eigenen Modelle anhand Ihrer eigenen Datensätze trainieren. Verwenden Sie die Navigationsseitenleiste, um die Fastai-Dokumentation durchzusehen. Jede Klasse, Funktion und Methode ist hier dokumentiert.
Um mehr über das Design und die Motivation der Bibliothek zu erfahren, lesen Sie den Peer-Review-Artikel.
fastai ist eine Deep-Learning-Bibliothek, die Praktikern High-Level-Komponenten zur Verfügung stellt, mit denen sie schnell und einfach hochmoderne Ergebnisse in Standard-Deep-Learning-Domänen liefern können, und Forschern Low-Level-Komponenten zur Verfügung stellt, die zum Erstellen gemischt und angepasst werden können neue Ansätze. Ziel ist es, beides zu erreichen, ohne wesentliche Kompromisse bei Benutzerfreundlichkeit, Flexibilität oder Leistung einzugehen. Dies ist dank einer sorgfältig geschichteten Architektur möglich, die gemeinsame Grundmuster vieler Deep-Learning- und Datenverarbeitungstechniken in Form entkoppelter Abstraktionen zum Ausdruck bringt. Diese Abstraktionen können prägnant und klar ausgedrückt werden, indem die Dynamik der zugrunde liegenden Python-Sprache und die Flexibilität der PyTorch-Bibliothek genutzt werden. Fastai beinhaltet:
Fastai ist auf zwei Hauptdesignziele ausgerichtet: zugänglich und schnell produktiv zu sein und gleichzeitig umfassend hackbar und konfigurierbar zu sein. Es basiert auf einer Hierarchie von APIs auf niedrigerer Ebene, die zusammensetzbare Bausteine bereitstellen. Auf diese Weise muss ein Benutzer, der einen Teil der High-Level-API neu schreiben oder ein bestimmtes Verhalten hinzufügen möchte, um seinen Anforderungen gerecht zu werden, nicht lernen, wie man die unterste Ebene verwendet.
Es ist sehr einfach, von einfachem PyTorch, Ignite oder einer anderen PyTorch-basierten Bibliothek zu migrieren oder Fastai sogar in Verbindung mit anderen Bibliotheken zu verwenden. Im Allgemeinen können Sie Ihren gesamten vorhandenen Datenverarbeitungscode verwenden, aber die Menge an Code, die Sie für die Schulung benötigen, reduzieren und moderne Best Practices einfacher nutzen. Hier finden Sie Migrationsleitfäden einiger beliebter Bibliotheken, die Sie auf Ihrem Weg unterstützen:
Aufgrund von Python-Multiprocessing-Problemen unter Jupyter und Windows wird num_workers
von Dataloader
automatisch auf 0 zurückgesetzt, um ein Hängenbleiben von Jupyter zu vermeiden. Dies macht Aufgaben wie Computer Vision in Jupyter unter Windows um ein Vielfaches langsamer als unter Linux. Diese Einschränkung besteht nicht, wenn Sie Fastai aus einem Skript verwenden.
Sehen Sie sich dieses Beispiel an, um die Fastai-API unter Windows vollständig zu nutzen.
Wir empfehlen stattdessen die Verwendung des Windows-Subsystems für Linux (WSL). Wenn Sie dies tun, können Sie den regulären Linux-Installationsansatz verwenden und werden keine Probleme mit num_workers
haben.
Um die Tests parallel auszuführen, starten Sie:
nbdev_test
Damit alle Tests erfolgreich sind, müssen Sie die Abhängigkeiten installieren, die als Teil von dev_requirements in der Datei „settings.ini“ angegeben sind
pip install -e .[dev]
Tests werden mit nbdev
geschrieben, siehe beispielsweise die Dokumentation zu test_eq
.
Nachdem Sie dieses Repository geklont haben, stellen Sie sicher, dass Sie nbdev_install_hooks
in Ihrem Terminal ausgeführt haben. Dadurch werden Jupyter und Git-Hooks installiert, um Zusammenführungskonflikte in Notebooks automatisch zu bereinigen, zu vertrauen und zu beheben.
Nachdem Sie Änderungen im Repo vorgenommen haben, sollten Sie nbdev_prepare
ausführen und zusätzliche und notwendige Änderungen vornehmen, um alle Tests zu bestehen.
Wer sich für offizielle Docker-Container für dieses Projekt interessiert, kann diese hier finden.