Llama_RAG_System
1.0.0
LLAMA_RAG_SYSTEM是一個強大的檢索生成(RAG)系統,旨在用豐富的,上下文相關的答案進行交互響應用戶查詢。該系統使用Llama模型和Ollama構建,可以處理各種任務,包括回答一般問題,匯總內容以及從上傳的PDF文檔中提取信息。該體系結構利用Chromadb進行有效的文檔嵌入和檢索,同時還結合了Web刮擦功能以從Internet獲取最新信息。
這是Gradio應用程序接口的瞥見:
?請注意:此項目目前正在開發中。歡迎您的反饋和貢獻!
Ollama是在本地運行機器學習模型的絕佳選擇,原因有幾個:
該項目的組織如下:
project/
├── core/
│ ├── embedding.py # Embedding-related functionality
│ ├── document_utils.py # Functions to handle document loading and processing
│ ├── query.py # Query document functionality
│ ├── generate.py # Response generation logic
│ ├── web_scrape.py # Web scraping functionality
│
├── scripts/
│ ├── run_flask.py # Script to run Flask API
│ ├── run_gradio.py # Script to run Gradio interface
│
├── chromadb_setup.py # ChromaDB setup and connection
│
├── README.md # Project documentation
要設置llama_rag_system,請按照以下步驟:
克隆存儲庫:
git clone https://github.com/NimaVahdat/Llama_RAG_System.git
cd Llama_RAG_System
確保Chromadb和其他任何必要的服務都根據需要運行。
要啟動燒瓶API,請運行以下命令:
python -m scripts.run_flask
要啟動Gradio接口,請執行:
python -m scripts.run_gradio
運行任一腳本後,您將能夠通過提供的Web界面與系統進行交互。
歡迎捐款!如果您有改進或功能的建議,請提供存儲庫並提交拉動請求。
該項目是根據MIT許可證獲得許可的 - 有關詳細信息,請參見許可證文件。
有關任何查詢或支持,請與我聯繫。