rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
A maneira mais fácil de executar um LLM local é usar o LM Studio: https://lmstudio.ai/
O LLM que uso em minhas palestras (funciona bem em um MBP M1 Max com 64 GB de RAM):