Der Deep -Lern -Rahmen für Vorbereitungs-, Finetune- und Bereitstellungs -KI -Modelle.
NEU-Bereitstellungsmodelle? Schauen Sie sich LitServe, den Pytorch Lightning für das Modelldienst an
Schnellstart • Beispiele • Pytorch Lightning • Stoff • Lightning AI • Community • Dokumente
Pytorch Lightning: Trainer und einsetzen Pytorch im Maßstab.
Blitzgewebe: Expertenkontrolle.
Lightning gibt Ihnen eine körnige Kontrolle darüber, wie viel Abstraktion Sie über Pytorch hinzufügen möchten.
Lightning installieren:
PIP Lightning installieren
PIP Installieren Sie Lightning ['Extra']
Conda Installieren Sie Lightning -C Conda -Forge
Installieren Sie die zukünftige Version aus der Quelle
PIP installieren
Nachtszeit aus der Quelle installieren (keine Garantien)
PIP Installation https://github.com/lightning-ai/lightning/archive/refs/heads/master.zip-
oder vom Test pypi
PIP install -iu https://test.pypi.org/simple/ pytorch -lightning
Definieren Sie den Schulungsworkflow. Hier ist ein Spielzeugbeispiel (erkunden Sie echte Beispiele):
# main.py#! PIP Installieren Sie TorchvisionImport Torch, Torch.nn als NN, Torch.utils.data als Daten, Torchvision als Fernseher, Torch.nn.Funktional als Fimport Lightning als L# -------------------------------------------------------- ----------------# Schritt 1: Definieren Sie ein LightningModule# ---------------------------------- ------# Ein LightningModule (nn.module subclass) definiert ein volles *System *# (dh ein LLM, ein Diffusionsmodell, ein Autocoder oder eine einfache Bildklassifizierung) .CLASS LITAUTOENCODER (L.LICHTNINGMODULE): Defulit __init __ ((__init __ self): super () .__ init __ () self.encoder = nn.sequenzial (nn.linear (28 * 28, 128), nn.relu (), nn.linear (128, 3)) self.decoder = nn. Sequentiell (Nn.Linear (3, 128), Nn.relu (), Nn.Linear (128, 28 * 28)) def vorne (self, x):# In Lightning definiert vorwärts die Vorhersage/Inferenz -Aktionen, die sempft = self. Encoder (x) Return Einbettdingdef Training_Step (Self, Batch, batch_idx):# Training_Step definiert die Zugschleife. Es ist unabhängig von Forwardx, _ = batchx = x.view (x.size (0), -1) z = self.encoder (x) x_hat = self.decoder (z) LUST = F.MSE_LOSS (x_HAT, x) self.log ("Train_loss", Verlust) return lossdef configure_optimizers (self): optimizer = ficker.optim.adam (self.parameters (), lr = 1e-3) Return Optimizer# ---------- ---------# Schritt 2: Daten definieren# ------------------- Dataset = tv.datasets.mnist (".", Download = true , transform = tv.transforms.totensor ()) train, val = data.random_split (Datensatz, [55000, 5000])# -------------------# Schritt 3 : Zug# ------------------- AutoCoder = litAutoencoder () Trainer = L.Trainer () Trainer.Fit (Autocoder, Data.Dataloader (Zug), Data.Dataloader (val))
Führen Sie das Modell auf Ihrem Terminal aus
PIP Installieren Sie Torchvision Python main.py
Pytorch Lightning ist nur organisiert.
Die Blitzgemeinschaft wird von erhalten
10+ Core -Mitwirkende, die alle eine Mischung aus professionellen Ingenieuren, Forschungswissenschaftlern und Ph.D. Schüler aus Top -AI -Labors.
800 Community -Mitwirkende.
Möchten Sie uns helfen, Blitz zu bauen und die Kesselplatte für Tausende von Forschern zu reduzieren? Erfahren Sie, wie Sie hier Ihren ersten Beitrag leisten können
Lightning ist auch Teil des Pytorch -Ökosystems, bei dem Projekte solide Tests, Dokumentation und Unterstützung benötigen.
Wenn Sie Fragen haben, bitte:
Lesen Sie die Dokumente.
Suchen Sie vorhandenen Diskussionen oder fügen Sie eine neue Frage hinzu
Schließe dich unserer Zwietracht an.
OSX (mehrere Python -Versionen) | |||
Windows (mehrere Python -Versionen) |