Llama-github هي أداة قوية تساعدك على استرداد (استنادًا إلى Agentic RAG) مقتطفات التعليمات البرمجية والمشكلات ومعلومات المستودع الأكثر صلة من GitHub بناءً على استفساراتك، وتحويلها إلى سياق معرفي قيم. إنه يمكّن LLM Chatbots ووكلاء الذكاء الاصطناعي ووكلاء التطوير التلقائي من حل مهام الترميز المعقدة. سواء كنت مطورًا يبحث عن حلول سريعة أو مهندسًا ينفذ وكلاء Auto Dev AI المتقدمين، فإن llama-github يجعل الأمر سهلاً وفعالاً.
إذا أعجبك هذا المشروع أو تعتقد أن لديه إمكانات، يرجى إعطائه ️. دعمكم هو الدافع الأكبر لدينا!
pip install llama-github
فيما يلي مثال بسيط لكيفية استخدام llama-github:
from llama_github import GithubRAG
# Initialize GithubRAG with your credentials
github_rag = GithubRAG (
github_access_token = "your_github_access_token" ,
openai_api_key = "your_openai_api_key" , # Optional in Simple Mode
jina_api_key = "your_jina_api_key" # Optional - unless you want high concurrency production deployment (s.jina.ai API will be used in llama-github)
)
# Retrieve context for a coding question (simple_mode is default set to False)
query = "How to create a NumPy array in Python?"
context = github_rag . retrieve_context (
query , # In professional mode, one query will take nearly 1 min to generate final contexts. You could set log level to INFO to monitor the retrieval progress
# simple_mode = True
)
print ( context )
لمزيد من الاستخدام المتقدم والأمثلة، يرجى الرجوع إلى الوثائق.
؟ استرجاع GitHub الذكي : استفد من قوة llama-github لاسترداد مقتطفات التعليمات البرمجية والمشكلات ومعلومات المستودع ذات الصلة العالية من GitHub بناءً على استعلامات المستخدم. تضمن تقنيات الاسترجاع المتقدمة لدينا العثور على المعلومات الأكثر صلة بالموضوع بسرعة وكفاءة.
⚡ التخزين المؤقت لتجمع المستودعات : يحتوي Llama-github على آلية مبتكرة للتخزين المؤقت لتجمع المستودعات. من خلال التخزين المؤقت للمستودعات (بما في ذلك ملفات README والهياكل والتعليمات البرمجية والمشكلات) عبر سلاسل المحادثات، يعمل llama-github على تسريع كفاءة استرجاع بحث GitHub بشكل كبير وتقليل استهلاك رموز GitHub API المميزة. انشر llama-github في بيئات إنتاج متعددة الخيوط بثقة، مع العلم أنه سيعمل على النحو الأمثل وسيوفر لك موارد قيمة.
؟ تحليل الأسئلة المدعوم من LLM : الاستفادة من نماذج اللغة الحديثة لتحليل أسئلة المستخدم وإنشاء استراتيجيات ومعايير بحث فعالة للغاية. يقوم Llama-github بتحليل الاستعلامات المعقدة بذكاء، مما يضمن استرداد المعلومات الأكثر صلة من شبكة مستودعات GitHub الواسعة.
إنشاء سياق شامل : قم بإنشاء إجابات غنية وذات صلة بالسياق من خلال الجمع بسلاسة بين المعلومات المستردة من GitHub والإمكانيات المنطقية لنماذج اللغة المتقدمة. تتفوق Llama-github في التعامل حتى مع الأسئلة الأكثر تعقيدًا وطولًا، وتوفر استجابات شاملة ومفيدة تتضمن سياقًا واسع النطاق لدعم احتياجات التطوير الخاصة بك.
التميز في المعالجة غير المتزامنة : تم تصميم Llama-github من الألف إلى الياء للاستفادة من الإمكانات الكاملة للبرمجة غير المتزامنة. من خلال الآليات غير المتزامنة التي تم تنفيذها بدقة والتي تم دمجها في قاعدة التعليمات البرمجية، يمكن لـ llama-github التعامل مع طلبات متعددة في وقت واحد، مما يعزز الأداء العام بشكل كبير. اكتشف الفرق حيث يقوم llama-github بإدارة أعباء العمل كبيرة الحجم بكفاءة دون المساس بالسرعة أو الجودة.
؟ تكامل مرن لـ LLM : يمكنك بسهولة دمج llama-github مع موفري LLM المختلفين، ونماذج التضمين، وإعادة ترتيب النماذج لتخصيص قدرات المكتبة وفقًا لمتطلباتك المحددة. تتيح لك بنيتنا القابلة للتوسيع تخصيص وظائف llama-github وتحسينها، مما يضمن تكيفها بسلاسة مع بيئة التطوير الفريدة الخاصة بك.
خيارات مصادقة قوية : يدعم Llama-github كلاً من رموز الوصول الشخصية ومصادقة تطبيق GitHub، مما يوفر لك المرونة اللازمة لدمجها في إعدادات التطوير المختلفة. سواء كنت مطورًا فرديًا أو تعمل ضمن سياق تنظيمي، فإن llama-github يوفر لك آليات مصادقة آمنة وموثوقة.
التسجيل ومعالجة الأخطاء : نحن ندرك أهمية العمليات السلسة واستكشاف الأخطاء وإصلاحها بسهولة. لهذا السبب يأتي llama-github مزودًا بآليات شاملة للتسجيل ومعالجة الأخطاء. احصل على رؤى عميقة حول سلوك المكتبة، وقم بتشخيص المشكلات بسرعة، وحافظ على سير عمل تطوير مستقر وموثوق.
إذا وجدت llama-github مفيدًا، فقد تكون مهتمًا أيضًا بمساعد مراجعة GitHub للعلاقات العامة المدعوم بالذكاء الاصطناعي، LlamaPReview. لقد تم تصميمه لاستكمال سير عمل التطوير الخاص بك وتحسين جودة التعليمات البرمجية بشكل أكبر.
يستخدم LlamaPReview استرجاع السياق المتقدم لـ llama-github والتحليل المدعوم من LLM لتقديم مراجعات أكواد ذكية واعية بالسياق. إنه مثل وجود مطور كبير، مسلح بالسياق الكامل لمستودعك، يقوم بمراجعة كل العلاقات العامة تلقائيًا!
قم بتثبيت LlamaPReview الآن (مجانًا)
باستخدام llama-github لاسترجاع السياق وLlamaPReview لمراجعة التعليمات البرمجية، يمكنك إنشاء بيئة تطوير قوية ومعززة بالذكاء الاصطناعي.
تتمثل رؤيتنا في أن نصبح وحدة محورية في مستقبل حلول التطوير المعتمدة على الذكاء الاصطناعي، مع التكامل بسلاسة مع GitHub لتمكين حاملي شهادات الماجستير في حل مهام البرمجة المعقدة تلقائيًا.
للحصول على عرض تفصيلي لخريطة طريق مشروعنا، يرجى زيارة خريطة طريق مشروعنا.
نود أن نعرب عن امتناننا للمشاريع مفتوحة المصدر التالية لدعمها ومساهماتها:
لقد كانت مساهماتهم مفيدة في تطوير اللاما جيثب، ونحن نوصي بشدة بمراجعة مشاريعهم للحصول على حلول أكثر ابتكارًا.
نحن نرحب بالمساهمات في اللاما جيثب! يرجى الاطلاع على إرشادات المساهمة الخاصة بنا لمزيد من المعلومات.
تم ترخيص هذا المشروع بموجب شروط ترخيص Apache 2.0. راجع ملف الترخيص لمزيد من التفاصيل.
إذا كانت لديك أي أسئلة أو اقتراحات أو تعليقات، فلا تتردد في التواصل معنا عبر البريد الإلكتروني الخاص بـ Jet Xu.
شكرًا لك على اختيار لاما جيثب! نأمل أن تعمل هذه المكتبة على تحسين تجربة تطوير الذكاء الاصطناعي لديك وتساعدك على إنشاء تطبيقات قوية بسهولة.