rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
Der einfachste Weg, ein lokales LLM auszuführen, ist die Verwendung von LM Studio: https://lmstudio.ai/
Das LLM, das ich in meinen Konferenzvorträgen verwende (funktioniert gut auf einem MBP M1 Max mit 64 GB RAM):