experiments genai
1.0.0
قائمة التجارب على النظام البيئي Gen AI
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
تثبيت وتشغيل نموذج LLM على المستوى المحلي باستخدام Ollama. قم بزيارة صفحة التنزيل (https://olma.com/
2.1 Llama2 - قم بتشغيل ollama run llama2
على المحطة. زيارة لمزيد من المعلومات حول اللاما2.
2.2 Codellama - تشغيل ollama run codellama
على المحطة الطرفية. قم بزيارة لمزيد من المعلومات حول كوديلاما.
اختياري، مطلوب فقط عند تنفيذ أمثلة Milvus
تأكد من تشغيل متجر Milvus Vector قبل تنفيذ الأمثلة التابعة لـ Milvus.
Milvus
Vector. نفذ sudo docker compose -f docker-compose-milvus.yml up -d
من جذر المشروع. اسم الملف / المجلد | الإطار (الإطارات) | التحسين / ضبط دقيق | خط أنابيب |
---|---|---|---|
rag_pdf_1.py | LlamaIndex + Milvus | خرقة | قم بتحميل PDF Dir، واستخرج البيانات والفهرس بطريقة ساذجة، وقم بتضمين الفهرس في متجر المتجهات، واستعلامات المستخدم |
rag_pdf_2.py | LlamaIndex | خرقة | قم بتحميل PDF Dir، واستخرج البيانات باستخدام نافذة الجملة، وقم بتضمين الفهرس في وحدة التخزين المحلية، واستعلامات المستخدم |
rag_pdf_3.py | LlamaIndex + Milvus | خرقة | قم بتحميل PDF Dir، واستخرج البيانات باستخدام نافذة الجملة، وقم بتضمين الفهرس في متجر المتجهات، واستعلامات المستخدم |
rag_pdf_4.py | لاما إندكس + كروما | خرقة | قريباً |
rag_pdf_5.py | LlamaIndex + كوز الصنوبر | خرقة | قريباً |
rag_pdf_6.py | LlamaIndex + Qdrant | خرقة | قريباً |
rag_pdf_7.py | لاما إندكس + راي + ميلفوس | خرقة | قريباً |
rag_pdf_8.py | لاما إندكس + راي + ميلفوس | خرقة | قريباً |
python3 rag_pdf_1.py