El marco de aprendizaje profundo para el envío, Finetune e implementa modelos AI.
¿Modelos de implementación recién implementados? Echa un vistazo a Litserve, Pytorch Lightning para servir modelo
Inicio rápido • Ejemplos • Pytorch Lightning • Fabric • Lightning AI • Comunidad • Documentos
Pytorch Lightning: Train and Deploy Pytorch a escala.
Lightning Fabric: Control de expertos.
Lightning le brinda control granular sobre cuánta abstracción desea agregar sobre Pytorch.
Instalar Lightning:
PIP Instalar Lightning
PIP install Lightning ['extra']
conda install rightning -c conda -forge
Instale la versión futura de la fuente
PIP Instale https://github.com/lightning-ai/lightning/archive/refs/heads/release/stable.zip -u
Instale la noche desde la fuente (sin garantías)
PIP Instale https://github.com/lightning-ai/lightning/archive/refs/heads/master.zip -u
o de probar pypi
Pip Install -iu https://test.pypi.org/simple/ pytorch -lightning
Defina el flujo de trabajo de capacitación. Aquí hay un ejemplo de juguete (explore ejemplos reales):
# main.py#! PIP Instale TorchVisionImport Torch, Torch.nn como nn, tortch.utils.data como datos, atorchvision como tv, torch.nn.functional tan fimport lightning como l# ----------------- ----------------# Paso 1: Defina un# de LightningModule -------------------------- ------# A LightningModule (subclase Nn.Module) define un *sistema *# (es decir: un modelo de difusión, modelo de difusión, autoinjer o clasificador de imagen simple) .Class LitautoEncoder (L.lightningModule): def __init __ (( self): super () .__ init __ () self.encoder = nn.sequential (nn.linear (28 * 28, 128), nn.relu (), nn.linear (128, 3)) self.decoder = nn. Secuencial (nn.linear (3, 128), nn.relu (), nn.linear (128, 28 * 28)) def hacia adelante (self, x):# en rayos, hacia adelante define la predicción/inferencia de acciones enmbeding = self. Encoder (x) return IngreddingDef Training_step (Self, Batch, Batch_idx):# entrenador_step define el bucle de tren. Es independiente de hacia adelantex, _ = batchx = x.view (x.size (0), -1) z = self.encoder (x) x_hat = self.decoder (z) pérdida = f.mse_loss (x_hat, x) Self.log ("Train_loss", Loss) Return Lossdef configure_optimizers (self): optimizador = atorch.optim.adam (self.parameters (), lr = 1e-3) return Optimizer# ----------- ---------## Paso 2: Definir datos# ------------------- DataSet = TV.Datasets.mnist (".", Descargar = True , transform = tv.transforms.totensor ()) trenes, val = data.random_split (DataSet, [55000, 5000])# -----------------------# Paso 3 : Train# ------------------- Autoencoder = litautoCoder () entrenador = L.trainer () Trainer.fit (AutoEncoder, data.dataloader (Train), data.dataloader (val))
Ejecute el modelo en su terminal
Visación de antorchas de instalación de PIP python main.py
Pytorch Lightning está acaba de organizar Pytorch - Lightning desagule el código de Pytorch para desacoplar la ciencia de la ingeniería.
La comunidad de Lightning se mantiene por
Más de 10 colaboradores centrales que son una mezcla de ingenieros profesionales, científicos de investigación y Ph.D. Estudiantes de los mejores laboratorios de IA.
Más de 800 contribuyentes comunitarios.
¿Quiere ayudarnos a construir un rayo y reducir la plantilla para miles de investigadores? Aprenda a hacer su primera contribución aquí
Lightning también es parte del ecosistema Pytorch que requiere que los proyectos tengan pruebas, documentación y soporte sólidos.
Si tiene alguna pregunta, por favor:
Lea los documentos.
Buscar discusiones existentes o agregar una nueva pregunta
Únete a nuestra discordia.
OSX (versiones múltiples de Python) | |||
Windows (versiones múltiples de Python) |