rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
La forma más sencilla de ejecutar un LLM local es utilizar LM Studio: https://lmstudio.ai/
El LLM que uso en mis conferencias (funciona bien en un MBP M1 Max con 64 GB de RAM):