experiments genai
1.0.0
Gen AI生态系统实验列表
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
使用 Ollama 在本地安装并运行 LLM 模型。访问下载页面 (https://ollama.com/
2.1 Llama2 - 在终端上运行ollama run llama2
。有关 llama2 的更多信息,请访问。
2.2 Codellama - 运行ollama run codellama
。请访问有关 Codellama 的更多信息。
可选,仅在执行 Milvus 示例时需要
在执行 Milvus 依赖示例之前,请确保 Milvus 矢量存储已启动并正在运行。
Milvus
Vector 存储设置。从项目根目录执行sudo docker compose -f docker-compose-milvus.yml up -d
。 文件/文件夹名称 | 框架 | 优化/微调 | 管道 |
---|---|---|---|
rag_pdf_1.py | LlamaIndex + Milvus | 抹布 | 加载PDF目录,以简单的方式提取数据和索引,将索引嵌入向量存储,用户查询 |
rag_pdf_2.py | 骆驼指数 | 抹布 | 加载 PDF 目录、使用句子窗口提取数据、将索引嵌入到本地存储、用户查询 |
rag_pdf_3.py | LlamaIndex + Milvus | 抹布 | 加载 PDF 目录、使用句子窗口提取数据、将索引嵌入向量存储、用户查询 |
rag_pdf_4.py | 骆驼索引 + 色度 | 抹布 | 即将推出 |
rag_pdf_5.py | LlamaIndex + 松果 | 抹布 | 即将推出 |
rag_pdf_6.py | 骆驼索引 + Qdrant | 抹布 | 即将推出 |
rag_pdf_7.py | LlamaIndex + 雷 + Milvus | 抹布 | 即将推出 |
rag_pdf_8.py | LlamaIndex + 雷 + Milvus | 抹布 | 即将推出 |
python3 rag_pdf_1.py