rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
Cara termudah untuk menjalankan LLM lokal adalah dengan menggunakan LM Studio: https://lmstudio.ai/
LLM yang saya gunakan dalam pembicaraan konferensi saya (berfungsi dengan baik pada MBP M1 Max dengan RAM 64GB):