rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
أسهل طريقة لتشغيل LLM محليًا هي استخدام LM Studio: https://lmstudio.ai/
LLM الذي أستخدمه في محادثاتي في المؤتمر (يعمل بشكل جيد على MBP M1 Max المزود بذاكرة وصول عشوائي (RAM) سعة 64 جيجابايت):