A estrutura de aprendizagem profunda para os modelos de pré -rAin, FineTune e IA.
Novos modelos de implantação? Confira LitServe, o Pytorch Lightning para servir de modelo
Iniciar rápido • Exemplos • Lightning Pytorch • Fabric • Lightning AI • Comunidade • Docs
Pytorch Lightning: Treine e implante Pytorch em escala.
Tecido relâmpago: controle de especialistas.
O Lightning oferece controle granular sobre a quantidade de abstração que você deseja adicionar ao Pytorch.
Instale Lightning:
PIP Instale um raio
Pip Install Lightning ['Extra']
CONDA INSTALA LAVERSO -C CONDA -FORGE
Instale a versão futura da fonte
pip install https://github.com/lightning-ai/lightning/archive/refs/heads/release/stable.zip-u
Instale todas as noites da fonte (sem garantias)
pip install https://github.com/lightning-ai/lightning/archive/refs/heads/master.zip -u
ou de testar Pypi
pip install -iu https://test.pypi.org/simple/ pytorch-leightning
Defina o fluxo de trabalho de treinamento. Aqui está um exemplo de brinquedo (explore exemplos reais):
# main.py#! Pip Install TorchVisionImport Torch, Torch.nn como nn, Torch.utils.data como dados, Torchvision como TV, Torch.nn.Funcional como Fimport Lightning como L# -------------------- ------------------# Etapa 1: Defina um LightningModule# ------------------------------ ------# Um LightningModule (subclasse nn.Module) define um sistema *# completo *# (ou seja: um LLM, modelo de difusão, autoencoder ou classificador de imagem simples) .Class LitautoEncoder (L.LightningModule): Def __init __ ( self): super () .__ init __ () self.Encoder = nn.vestential (nn.Linear (28 * 28, 128), nn.relu (), nn.Linear (128, 3)) self.Decoder = nn. Sequencial (nn.Linear (3, 128), nn.relu (), nn.linear (128, 28 * 28)) def para a frente (self, x):# em raios, a frente define a previsão/inferência Sembedding = self. Encoder (x) Return INFEDDINGDEF TREINA_STEP (self, lote, batch_idx):# Training_Step Define o loop do trem. É independente de Forwardx, _ = Batchx = x.view (x.size (0), -1) z = self.encoder (x) x_hat = self.decoder (z) perda = f.mse_loss (x_hat, x) self.log ("TRINHE_LOSS", LESS) Return LossDef Configur_optimizers (self): otimizer = Torch.optim.adam (self.parameters (), lr = 1e-3) Retornar otimizador# -------------- ---------# Etapa 2: Defina dados# ----------------- DataSet = tv.datasets.mnist (".", Download = true . : Trem# ------------------- AutoEncoder = LitautoEncoder () treinador = L.Trainer () Trainer.Fit (AutoEncoder, Data.Dataloader (Train), Data.dataloader (val))
Execute o modelo no seu terminal
PIP Instale a Torchvision python main.py
O Pytorch Lightning está apenas organizado Pytorch - Lightning desventura o código Pytorch para dissociar a ciência da engenharia.
A comunidade de raios é mantida por
Mais de 10 colaboradores principais que são todos uma mistura de engenheiros profissionais, cientistas de pesquisa e Ph.D. Alunos dos principais laboratórios de IA.
Mais de 800 colaboradores da comunidade.
Deseja nos ajudar a construir um raio e reduzir o caldelador para milhares de pesquisadores? Aprenda a fazer sua primeira contribuição aqui
O Lightning também faz parte do ecossistema Pytorch, que exige que os projetos tenham testes, documentação e suporte sólidos.
Se você tiver alguma dúvida, por favor:
Leia os documentos.
Pesquise através de discussões existentes ou adicione uma nova pergunta
Junte -se à nossa discórdia.
OSX (várias versões Python) | |||
Windows (várias versões Python) |