Llama هو نموذج لغة كبير مفتوح وسهل الوصول إليه (LLM) مصمم للمطورين والباحثين والشركات لبناء أفكارهم الإبداعية في مجال الذكاء الاصطناعي وتجربتها وتوسيع نطاقها بشكل مسؤول. وهي جزء من نظام تأسيسي، وهي بمثابة حجر الأساس للابتكار في المجتمع العالمي. بعض الجوانب الرئيسية:
الوصول المفتوح : سهولة الوصول إلى نماذج اللغات الكبيرة المتطورة، وتعزيز التعاون والتقدم بين المطورين والباحثين والمنظمات
نظام بيئي واسع : تم تنزيل نماذج Llama مئات الملايين من المرات، وهناك الآلاف من المشاريع المجتمعية المبنية على Llama ودعم النظام الأساسي واسع النطاق بدءًا من موفري الخدمات السحابية ووصولاً إلى الشركات الناشئة - العالم يبني باستخدام Llama!
الثقة والسلامة : تعد نماذج اللاما جزءًا من نهج شامل للثقة والسلامة، حيث يتم إطلاق النماذج والأدوات المصممة لتمكين التعاون المجتمعي وتشجيع توحيد تطوير واستخدام أدوات الثقة والسلامة للذكاء الاصطناعي المولد
مهمتنا هي تمكين الأفراد والصناعة من خلال هذه الفرصة مع تعزيز بيئة الاكتشاف والتقدم الأخلاقي للذكاء الاصطناعي. الأوزان النموذجية مرخصة للباحثين والجهات التجارية، ملتزمة بمبادئ الانفتاح.
نموذج | تاريخ الإطلاق | أحجام النماذج | طول السياق | رمز مميز | سياسة الاستخدام المقبول | رخصة | البطاقة النموذجية |
---|---|---|---|---|---|---|---|
اللاما 2 | 18/07/2023 | 7ب، 13ب، 70ب | 4K | الجملة | استخدام السياسة | رخصة | البطاقة النموذجية |
اللاما 3 | 18/04/2024 | 8 ب، 70 ب | 8 ك | على أساس TikToken | استخدام السياسة | رخصة | البطاقة النموذجية |
اللاما 3.1 | 23/07/2024 | 8ب، 70ب، 405ب | 128 ألف | على أساس TikToken | استخدام السياسة | رخصة | البطاقة النموذجية |
اللاما 3.2 | 25/09/2024 | 1 ب، 3 ب | 128 ألف | على أساس TikToken | استخدام السياسة | رخصة | البطاقة النموذجية |
اللاما 3.2-الرؤية | 25/09/2024 | 11 ب، 90 ب | 128 ألف | على أساس TikToken | استخدام السياسة | رخصة | البطاقة النموذجية |
لتحميل أوزان النموذج والرمز المميز:
قم بزيارة موقع ميتا لاما.
قراءة وقبول الترخيص.
بمجرد الموافقة على طلبك، ستتلقى عنوان URL موقعًا عبر البريد الإلكتروني.
قم بتثبيت Llama CLI: pip install llama-stack
. ( <-- ابدأ هنا إذا كنت قد تلقيت بريدًا إلكترونيًا بالفعل. )
قم بتشغيل llama model list
لإظهار أحدث الموديلات المتاحة وتحديد معرف النموذج الذي ترغب في تنزيله. ملاحظة : إذا كنت تريد إصدارات أقدم من النماذج، فقم بتشغيل llama model list --show-all
لإظهار جميع نماذج اللاما المتاحة.
تشغيل: llama download --source meta --model-id CHOSEN_MODEL_ID
قم بتمرير عنوان URL المقدم عندما يُطلب منك بدء التنزيل.
تذكر أن الروابط تنتهي صلاحيتها بعد 24 ساعة وبعد قدر معين من التنزيلات. يمكنك دائمًا إعادة طلب الرابط إذا بدأت في رؤية أخطاء مثل 403: Forbidden
.
تحتاج إلى تثبيت التبعيات التالية (بالإضافة إلى ملف requirements.txt
في الدليل الجذر لهذا المستودع) لتشغيل النماذج:
pip install torch fairscale fire blobfile
بعد تثبيت التبعيات، يمكنك تشغيل أمثلة البرامج النصية (ضمن الدليل الفرعي llama_models/scripts/
) كما يلي:
#!/bin/bashCHECKPOINT_DIR=~/.llama/checkpoints/Meta-Llama3.1-8B-Instruct PYTHONPATH=$(git rev-parse --show-toplevel) torchrun llama_models/scripts/example_chat_completion.py $CHECKPOINT_DIR
يجب استخدام البرنامج النصي أعلاه مع نموذج Instruct (الدردشة). بالنسبة للنموذج الأساسي، استخدم البرنامج النصي llama_models/scripts/example_text_completion.py
. لاحظ أنه يمكنك استخدام هذه البرامج النصية مع سلسلة نماذج Llama3 وLlama3.1.
لتشغيل نماذج أكبر مع توازي الموتر، يجب عليك التعديل على النحو التالي:
#!/bin/bashNGPUS=8 PYTHONPATH=$(git rev-parse --show-toplevel) torchrun --nproc_per_node=$NGPUS llama_models/scripts/example_chat_completion.py $CHECKPOINT_DIR --model_parallel_size $NGPUS
لمزيد من المرونة في تشغيل الاستدلال (بما في ذلك تشغيل استدلال FP8)، يرجى مراجعة مستودع Llama Stack
.
نوفر أيضًا تنزيلات على Hugging Face، بكل من تنسيقات المحولات وتنسيقات llama3
الأصلية. لتحميل الأوزان من Hugging Face برجاء اتباع الخطوات التالية:
تفضل بزيارة أحد مواقع إعادة الشراء، على سبيل المثال meta-llama/Meta-Llama-3.1-8B-Instruct.
قراءة وقبول الترخيص. بمجرد الموافقة على طلبك، سيتم منحك حق الوصول إلى جميع نماذج Llama 3.1 بالإضافة إلى الإصدارات السابقة. لاحظ أن الطلبات كانت تستغرق ما يصل إلى ساعة واحدة لتتم معالجتها.
لتنزيل الأوزان الأصلية الأصلية لاستخدامها مع هذا الريبو، انقر فوق علامة التبويب "الملفات والإصدارات" وقم بتنزيل محتويات المجلد original
. يمكنك أيضًا تنزيلها من سطر الأوامر إذا pip install huggingface-hub
:
Huggingface-cli تنزيل meta-llama/Meta-Llama-3.1-8B-Instruct --تشمل "original/*" --local-dir meta-llama/Meta-Llama-3.1-8B-Instruct
ملاحظة: لن تكون الأوزان الأصلية الأصلية لـ meta-llama/Meta-Llama-3.1-405B متاحة من خلال مستودع HugginFace هذا.
للاستخدام مع المحولات، سيقوم مقتطف خط الأنابيب التالي بتنزيل الأوزان وتخزينها مؤقتًا:
import Transformersimport torchmodel_id = "meta-llama/Meta-Llama-3.1-8B-Instruct"pipeline = Transformers.pipeline( "text-Generation"، model = "meta-llama/Meta-Llama-3.1-8B-Instruct"، model_kwargs ={"torch_dtype": torch.bfloat16}، جهاز = "cuda"، )
يمكنك تثبيت هذا المستودع كحزمة بمجرد القيام pip install llama-models
نماذج اللاما هي تقنية جديدة تحمل مخاطر محتملة مع الاستخدام. الاختبارات التي تم إجراؤها حتى الآن لم تغطي جميع السيناريوهات، ولا يمكنها ذلك. ولمساعدة المطورين على معالجة هذه المخاطر، قمنا بإنشاء دليل الاستخدام المسؤول.
بالنسبة للأسئلة الشائعة، يمكن العثور على الأسئلة الشائعة هنا، والتي سيتم تحديثها بمرور الوقت عند ظهور أسئلة جديدة.