يعد نظام LLAMA_RAG_SYSTEM نظامًا قويًا للتوليد (RAG) الذي تم تجوله في الاسترجاع المصمم للاستجابة بشكل تفاعلي لاستعلامات المستخدم مع الإجابات الغنية ذات الصلة بالسياق. تم تصميم هذا النظام باستخدام نموذج Llama و Ollama ، ويمكنه التعامل مع مختلف المهام ، بما في ذلك الإجابة على الأسئلة العامة ، وتلخيص المحتوى ، واستخراج المعلومات من مستندات PDF المحمّلة. تستخدم الهندسة المعمارية chromadb لتضمين المستندات الفعالة واسترجاعها ، مع دمج إمكانيات تجريف الويب لجلب المعلومات من الإنترنت.
إليك لمحة عن واجهة تطبيق Gradio:
؟ يرجى ملاحظة: هذا المشروع قيد التطوير حاليًا. ملاحظاتك ومساهماتك مرحب بها!
يعد Ollama خيارًا ممتازًا لتشغيل نماذج التعلم الآلي محليًا لعدة أسباب:
تم تنظيم المشروع على النحو التالي:
project/
├── core/
│ ├── embedding.py # Embedding-related functionality
│ ├── document_utils.py # Functions to handle document loading and processing
│ ├── query.py # Query document functionality
│ ├── generate.py # Response generation logic
│ ├── web_scrape.py # Web scraping functionality
│
├── scripts/
│ ├── run_flask.py # Script to run Flask API
│ ├── run_gradio.py # Script to run Gradio interface
│
├── chromadb_setup.py # ChromaDB setup and connection
│
├── README.md # Project documentation
لإعداد LLAMA_RAG_SYSTEM ، اتبع هذه الخطوات:
استنساخ المستودع:
git clone https://github.com/NimaVahdat/Llama_RAG_System.git
cd Llama_RAG_System
تأكد من تشغيل ChromadB وأي خدمات أخرى ضرورية حسب الحاجة.
لبدء API Flask ، قم بتشغيل الأمر التالي:
python -m scripts.run_flask
لإطلاق واجهة Gradio ، تنفيذ:
python -m scripts.run_gradio
بعد تشغيل أي من البرنامج النصي ، ستتمكن من التفاعل مع النظام عبر واجهة الويب المقدمة.
المساهمات مرحب بها! إذا كانت لديك اقتراحات للتحسينات أو الميزات ، فيرجى توتر المستودع وتقديم طلب سحب.
تم ترخيص هذا المشروع بموجب ترخيص معهد ماساتشوستس للتكنولوجيا - راجع ملف الترخيص للحصول على التفاصيل.
لأي استفسارات أو دعم ، يرجى الاتصال بي.