Kerangka pembelajaran yang mendalam untuk pretrain, finetune dan menggunakan model AI.
Model yang baru digunakan? Lihat Litserve, petir pytorch untuk porsi model
Mulai Cepat • Contoh • Petir Pytorch • Kain • Petir AI • Komunitas • Dokumen
Pytorch Lightning: Latih dan sebarkan Pytorch pada skala.
Lightning Fabric: Kontrol Ahli.
Lightning memberi Anda kontrol granular atas seberapa banyak abstraksi yang ingin Anda tambahkan lebih dari Pytorch.
Instal Lightning:
Pip Instal Lightning
Pip Instal Lightning ['Extra']
conda instal lightning -c conda -forge
Instal rilis di masa mendatang dari sumbernya
Pip Instal https://github.com/lightning-ai/light/archive/refs/heads/release/stable.zip -u
Instal setiap malam dari sumber (tidak ada jaminan)
PIP menginstal https://github.com/lightning-ai/lighning/archive/refs/heads/master.zip -u
atau dari pengujian pypi
PIP menginstal -iu https://test.pypi.org/simple/ pytorch-lightning
Tentukan alur kerja pelatihan. Inilah contoh mainan (jelajahi contoh nyata):
# Main.py#! Pip menginstal TorchVisionImport Torch, Torch.nn sebagai NN, Torch.utils.data sebagai Data, TorchVision sebagai TV, Torch.nn.Functional sebagai FIMPORT LIGHTNING SEBAGAI L# ------------- ----------------# Langkah 1: Tentukan LightningModule# -------------------------- ------# A LightningModule (NN.Module Subclass) mendefinisikan sistem *penuh *# (yaitu: llm, model difusi, autoencoder, atau classifier gambar sederhana) .class litautoencoder (L.LightningModule): Def __init __ ( self): super () .__ init __ () self.encoder = nn.Sequential (nn.linear (28 * 28, 128), nn.relu (), nn.linear (128, 3)) self.decoder = nn. Sequential (nn.linear (3, 128), nn.relu (), nn.linear (128, 28 * 28)) Def Forward (self, x):# Dalam petir, maju mendefinisikan prediksi/inferensi actionsEMBedding = self. encoder (x) return embeddingdef training_step (self, batch, batch_idx):# pelatihan_step mendefinisikan loop kereta. Ini independen dari Forwardx, _ = Batchx = x.view (x.size (0), -1) z = self.encoder (x) x_hat = self.decoder (z) loss = f.mse_loss (x_hat, x) self.log ("train_loss", loss) return lossDef configure_optimizers (self): optimizer = torch.optim.adam (self.parameters (), lr = 1e-3) pengoptimal return# ---------- ---------# Langkah 2: Tentukan data# ------------------- Dataset = tv.datasets.mnist (".", Unduh = true , transform = tv.transforms.totensor ()) kereta, val = data.random_split (dataset, [55000, 5000])# -------------------# Langkah 3 : Train# ------------------- Autoencoder = litautoencoder () trainer = l.trainer () trainer.fit (autoencoder, data.dataloader (train), data.dataloader (val))
Jalankan model di terminal Anda
Pip Instal TorchVision Python Main.py
Pytorch Lightning hanya terorganisir Pytorch - Lightning Disentangles Pytorch Code untuk memisahkan sains dari teknik.
Komunitas petir dipertahankan oleh
10+ Kontributor Inti yang semuanya merupakan campuran dari insinyur profesional, ilmuwan riset, dan Ph.D. Siswa dari Top AI Labs.
800+ kontributor komunitas.
Ingin membantu kami membangun petir dan mengurangi boilerplate untuk ribuan peneliti? Pelajari cara membuat kontribusi pertama Anda di sini
Petir juga merupakan bagian dari ekosistem Pytorch yang mengharuskan proyek untuk memiliki pengujian, dokumentasi, dan dukungan yang solid.
Jika Anda memiliki pertanyaan:
Baca dokumen.
Cari melalui diskusi yang ada, atau tambahkan pertanyaan baru
Bergabunglah dengan Perselisihan kami.
OSX (beberapa versi Python) | |||
Windows (beberapa versi Python) |