experiments genai
1.0.0
Lista de experimentos en el ecosistema Gen AI
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
Instale y ejecute el modelo LLM en local usando Ollama. Visita la página de descarga (https://ollama.com/
2.1 Llama2 : ejecuta ollama run llama2
en la terminal. Visite para obtener más información sobre llama2.
2.2 Codellama - ejecutar ollama run codellama
en la terminal. Visite para obtener más información sobre codellama.
Opcional, solo requerido al ejecutar ejemplos de Milvus
Asegúrese de que el almacén de vectores de Milvus esté en funcionamiento antes de ejecutar ejemplos dependientes de Milvus.
Milvus
Vector. Ejecute sudo docker compose -f docker-compose-milvus.yml up -d
desde la raíz del proyecto. Nombre de archivo/carpeta | Marco(s) | Optimización / Ajuste fino | Tubería |
---|---|---|---|
trapo_pdf_1.py | LlamaIndex + Milvus | TRAPO | Cargue el directorio PDF, extraiga datos e indexe de forma ingenua, incruste el índice en el almacén de vectores, consultas de usuarios |
rag_pdf_2.py | LlamaIndex | TRAPO | Cargar directorio PDF, extraer datos con la ventana de oración, incrustar el índice en el almacenamiento local, consultas de usuarios |
rag_pdf_3.py | LlamaIndex + Milvus | TRAPO | Cargar directorio PDF, extraer datos con la ventana de oración, incrustar el índice en el almacén de vectores, consultas de usuarios |
trapo_pdf_4.py | LlamaIndex + Croma | TRAPO | Muy pronto |
trapo_pdf_5.py | LlamaIndex + Piña | TRAPO | Muy pronto |
rag_pdf_6.py | LlamaIndex + Qdrant | TRAPO | Muy pronto |
rag_pdf_7.py | LlamaIndex + Ray + Milvus | TRAPO | Muy pronto |
rag_pdf_8.py | LlamaIndex + Ray + Milvus | TRAPO | Muy pronto |
python3 rag_pdf_1.py