rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
ローカル LLM を実行する最も簡単な方法は、LM Studio を使用することです: https://lmstudio.ai/
私が電話会議で使用している LLM (64GB RAM を搭載した MBP M1 Max で正常に動作します):