إطار التعلم العميق لتسوية نماذج الذكاء الاصطناعي ونشر النماذج.
نماذج النشر الجديدة؟ تحقق من Litserve ، البرق Pytorch لخدمة النموذج
بداية سريعة • أمثلة • البرق بايتورش • النسيج • البرق AI • المجتمع • مستندات
Pytorch Lightning: تدريب ونشر Pytorch على نطاق واسع.
النسيج البرق: مراقبة الخبراء.
يمنحك Lightning تحكمًا محببًا في مقدار التجريد الذي تريد إضافته عبر Pytorch.
تثبيت البرق:
PIP تثبيت البرق
PIP تثبيت Lightning ['extra']
كوندا تثبيت Lightning -c conda -forge
تثبيت الإصدار المستقبلي من المصدر
PIP تثبيت https://github.com/lightning-ai/lightning/archive/refs/heads/release/stable.zip -u
تثبيت ليلا من المصدر (لا ضمانات)
PIP تثبيت https://github.com/lightning-ai/lightning/archive/refs/heads/master.zip -u
أو من اختبار pypi
PIP تثبيت -IU https://test.pypi.org/simple/ pytorch-lightning
تحديد سير العمل التدريبي. إليك مثال لعبة (استكشف أمثلة حقيقية):
# main.py#! Pip تثبيت TorchVisionImport Torch ، Torch.nn As NN ، Torch.Utils.data كبيانات ، torchvision كـ TV ، Torch.nn.functional as fimport lightning as l# ------------------ ----------------# الخطوة 1: تحديد LightningModule# --------------------------- ------# a lightningmodule (nn.module subclass) يعرّف نظامًا كاملًا *# (أي: طراز LLM ، نماذج الانتشار ، المشفر التلقائي ، أو مصنف الصور البسيط) .class litautoencoder (l.lightningModule): def __ ( الذات): Super () .__ init __ () self.encoder = nn.Sequential (nn.linear (28 * 28 ، 128) ، nn.relu () ، nn.linear (128 ، 3)) self.decoder = nn. Sequential (NN.Linear (3 ، 128) ، nn.relu () ، nn.linear (128 ، 28 * 28)) def forward (self ، x):# in lightning ، forward يحدد الإجراءات التنبؤ/الاستدلال = الذات. Encoder (x) return inbeddingDef Training_step (Self ، Batch ، Batch_idx):# Training_Step يحدد حلقة القطار. إنه مستقل عن ForwardX ، _ = batchx = x.view (x.size (0) ، -1) z = self.encoder (x) x_hat = self.decoder (z) فقدان = f.mse_loss (x_hat ، x) Self.log ("Train_loss" ، فقدان) return lossdef config_optimizers (self): ensorizer = torch.optim.adam (self.parameters () ، lr = 1e-3) return Optimizer# ------------ ---------# الخطوة 2: تحديد البيانات# ------------------- Dataset = tv.datasets.mnist ("." ، تنزيل = صحيح ، transform = tv.transforms.totensor ()) Train ، Val = data.random_split (DataSet ، [55000 ، 5000])# -----------------# الخطوة 3 : Train# ----------------- Autoencoder = litautoencoder () Trainer = L.Trainer () Trainer.Fit (Autoencoder ، Data.Dataloader (Train) ، Data.Dataloader (فال))
قم بتشغيل النموذج على المحطة الخاصة بك
PIP تثبيت torchvision Python Main.py
Pytorch Lightning فقط منظم Pytorch - Lightning Disentangles رمز Pytorch لفصل العلوم من الهندسة.
يتم الحفاظ على مجتمع البرق بواسطة
10+ مساهمين أساسيين هم جميعهم مزيج من المهندسين المحترفين وعلماء الأبحاث ودكتوراه طلاب من الأعلى من الذكاء الاصطناعي.
800+ المساهمين المجتمع.
هل ترغب في مساعدتنا في بناء البرق وتقليل البلوم لآلاف الباحثين؟ تعلم كيفية تقديم مساهمتك الأولى هنا
يعد Lightning أيضًا جزءًا من النظام الإيكولوجي Pytorch والذي يتطلب من المشاريع إجراء اختبار وتوثيق ودعم قوي.
إذا كان لديك أي أسئلة من فضلك:
اقرأ المستندات.
ابحث من خلال المناقشات الحالية ، أو أضف سؤالًا جديدًا
انضم إلى خلافنا.
OSX (إصدارات Python متعددة) | |||
Windows (إصدارات Python متعددة) |