إطار عمل بايثوني لتبسيط بناء خدمات الذكاء الاصطناعي
الصفحة الرئيسية • ساحة واجهة برمجة التطبيقات (API) • أمثلة • الوثائق • مراجع واجهة سطر الأوامر (CLI) • تويتر • المدونة
تتيح لك مكتبة LeptonAI Python إنشاء خدمة ذكاء اصطناعي من كود Python بسهولة. تشمل الميزات الرئيسية ما يلي:
Photon
، مما يسمح لك بتحويل كود البحث والنمذجة إلى خدمة تحتوي على بضعة أسطر من التعليمات البرمجية.تثبيت المكتبة مع:
pip install -U leptonai
يؤدي هذا إلى تثبيت مكتبة leptonai
Python، بالإضافة إلى واجهة سطر الأوامر lep
. يمكنك بعد ذلك تشغيل نموذج HuggingFace، مثل gpt2
، في سطر واحد من التعليمات البرمجية:
lep photon runlocal - - name gpt2 - - model hf : gpt2
إذا كان لديك حق الوصول إلى نموذج Llama2 (تقدم بطلب للوصول هنا) ولديك وحدة معالجة رسومات بحجم معقول، فيمكنك تشغيله باستخدام:
# hint: you can also write `-n` and `-m` for short
lep photon runlocal - n llama2 - m hf : meta - llama / Llama - 2 - 7 b - chat - hf
(تأكد من استخدام الإصدار -hf
لـ Llama2، المتوافق مع خطوط أنابيب Huggingface.)
ويمكنك بعد ذلك الوصول إلى الخدمة من خلال:
from leptonai . client import Client , local
c = Client ( local ( port = 8080 ))
# Use the following to print the doc
print ( c . run . __doc__ )
print ( c . run ( inputs = "I enjoy walking with my cute dog" ))
يمكن العثور على نماذج Llama2 المُدارة بالكامل ونماذج CodeLlama في الملعب.
يتم دعم العديد من خطوط أنابيب HuggingFace القياسية - اكتشف المزيد من التفاصيل في الوثائق. على الرغم من ذلك، ليست كل نماذج HuggingFace مدعومة، حيث أن الكثير منها يحتوي على تعليمات برمجية مخصصة وليست خطوط أنابيب قياسية. إذا وجدت نموذجًا شائعًا ترغب في دعمه، فيرجى فتح مشكلة أو علاقة عامة.
يمكنك معرفة المزيد من الأمثلة من مستودع الأمثلة. على سبيل المثال، قم بتشغيل نموذج Stable Diffusion XL باستخدام:
git clone [email protected]:leptonai/examples.git
cd examples
lep photon runlocal - n sdxl - m advanced / sdxl / sdxl . py
بمجرد تشغيل الخدمة، يمكنك الوصول إليها من خلال:
from leptonai . client import Client , local
c = Client ( local ( port = 8080 ))
img_content = c . run ( prompt = "a cat launching rocket" , seed = 1234 )
with open ( "cat.png" , "wb" ) as fid :
fid . write ( img_content )
أو قم بالوصول إلى Gradio UI المثبت على http://localhost:8080/ui. تحقق من ملف README لمزيد من التفاصيل.
تتم استضافة SDXL مُدار بالكامل على https://dashboard.lepton.ai/playground/sdxl مع إمكانية الوصول إلى واجهة برمجة التطبيقات (API).
إن كتابة الفوتون الخاص بك أمر بسيط: اكتب فئة Python Photon وقم بتزيين الوظائف باستخدام @Photon.handler
. طالما أن المدخلات والمخرجات الخاصة بك قابلة للتسلسل JSON، فأنت على ما يرام. على سبيل المثال، تطلق التعليمة البرمجية التالية خدمة صدى بسيطة:
# my_photon.py
from leptonai . photon import Photon
class Echo ( Photon ):
@ Photon . handler
def echo ( self , inputs : str ) -> str :
"""
A simple example to return the original input.
"""
return inputs
يمكنك بعد ذلك تشغيل الخدمة باستخدام:
lep photon runlocal -n echo -m my_photon.py
وبعد ذلك، يمكنك استخدام خدمتك على النحو التالي:
from leptonai . client import Client , local
c = Client ( local ( port = 8080 ))
# will print available paths
print ( c . paths ())
# will print the doc for c.echo. You can also use `c.echo?` in Jupyter.
print ( c . echo . __doc__ )
# will actually call echo.
c . echo ( inputs = "hello world" )
لمزيد من التفاصيل، راجع الوثائق والأمثلة.
المساهمات والتعاون هي موضع ترحيب وتقدير كبير. يرجى مراجعة دليل المساهم لمعرفة كيفية المشاركة.
تم إصدار مكتبة Lepton AI Python بموجب ترخيص Apache 2.0.
ملاحظة المطور: التطوير المبكر لـ LeptonAI كان في عملية إعادة شراء أحادية منفصلة، ولهذا السبب قد ترى التزامات من leptonai/lepton
repo. نحن نعتزم استخدام هذا الريبو مفتوح المصدر كمصدر للحقيقة في المستقبل.