rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
로컬 LLM을 실행하는 가장 쉬운 방법은 LM Studio를 사용하는 것입니다: https://lmstudio.ai/
컨퍼런스 강연에서 사용하는 LLM(64GB RAM을 갖춘 MBP M1 Max에서 잘 작동함):