rag chat with pdf local llm
1.0.0
pip install -r requirements.txt
pip install -U pydantic==1.10.9
streamlit run chat.py
Le moyen le plus simple d'exécuter un LLM local est d'utiliser LM Studio : https://lmstudio.ai/
Le LLM que j'utilise dans mes conférences (fonctionne bien sur un MBP M1 Max avec 64 Go de RAM) :