experiments genai
1.0.0
Gen AI生態系實驗列表
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
使用 Ollama 在本地安裝並執行 LLM 模型。造訪下載頁面 (https://ollama.com/
2.1 Llama2 - 在終端機上運行ollama run llama2
。有關 llama2 的更多信息,請訪問。
2.2 Codellama - 運行ollama run codellama
。請訪問有關 Codellama 的更多資訊。
可選,僅在執行 Milvus 範例時需要
在執行 Milvus 依賴範例之前,請確保 Milvus 向量儲存已啟動並正在運行。
Milvus
Vector 儲存設定。從專案根目錄執行sudo docker compose -f docker-compose-milvus.yml up -d
。 檔案/資料夾名稱 | 框架 | 優化/微調 | 管道 |
---|---|---|---|
rag_pdf_1.py | LlamaIndex + Milvus | 抹布 | 載入PDF目錄,以簡單的方式提取資料和索引,將索引嵌入向量存儲,使用者查詢 |
rag_pdf_2.py | 駱駝指數 | 抹布 | 載入 PDF 目錄、使用句子視窗提取資料、將索引嵌入本機儲存、使用者查詢 |
rag_pdf_3.py | LlamaIndex + Milvus | 抹布 | 載入 PDF 目錄、使用句子視窗提取資料、將索引嵌入向量儲存、使用者查詢 |
rag_pdf_4.py | 駱駝索引 + 色度 | 抹布 | 即將推出 |
rag_pdf_5.py | LlamaIndex + 松果 | 抹布 | 即將推出 |
rag_pdf_6.py | 駱駝索引 + Qdrant | 抹布 | 即將推出 |
rag_pdf_7.py | LlamaIndex + 雷 + Milvus | 抹布 | 即將推出 |
rag_pdf_8.py | LlamaIndex + 雷 + Milvus | 抹布 | 即將推出 |
python3 rag_pdf_1.py