experiments genai
1.0.0
Lista de experimentos no ecossistema Gen AI
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
Instale e execute o modelo LLM localmente usando Ollama. Visite a página de download (https://ollama.com/
2.1 Llama2 - execute ollama run llama2
no terminal. Visite para obter mais informações sobre lhama2.
2.2 Codellama - execute ollama run codellama
no terminal. Visite para mais informações sobre codelama.
Opcional, necessário apenas ao executar exemplos Milvus
Certifique-se de que o armazenamento de vetores Milvus esteja instalado e funcionando antes de executar exemplos dependentes de Milvus.
Milvus
Vector. Execute sudo docker compose -f docker-compose-milvus.yml up -d
da raiz do projeto. Nome do arquivo/pasta | Estrutura(s) | Otimização/ajuste fino | Gasoduto |
---|---|---|---|
rag_pdf_1.py | LhamaIndex + Milvus | pano | Carregue o diretório PDF, extraia dados e indexe de maneira ingênua, incorpore o índice no armazenamento de vetores, consultas do usuário |
rag_pdf_2.py | LhamaIndex | pano | Carregar diretório PDF, extrair dados com janela de frase, incorporar o índice no armazenamento local, consultas do usuário |
rag_pdf_3.py | LhamaIndex + Milvus | pano | Carregar diretório PDF, extrair dados com janela de frase, incorporar o índice no armazenamento de vetores, consultas do usuário |
rag_pdf_4.py | LhamaIndex + Croma | pano | Em breve |
rag_pdf_5.py | LhamaIndex + Pinha | pano | Em breve |
rag_pdf_6.py | LhamaIndex + Qdrant | pano | Em breve |
rag_pdf_7.py | LhamaIndex + Ray + Milvus | pano | Em breve |
rag_pdf_8.py | LhamaIndex + Ray + Milvus | pano | Em breve |
python3 rag_pdf_1.py