rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
Самый простой способ запустить локальный LLM — использовать LM Studio: https://lmstudio.ai/
LLM, который я использую в своих выступлениях на конференциях (отлично работает на MBP M1 Max с 64 ГБ ОЗУ):