experiments genai
1.0.0
Список экспериментов над экосистемой Gen AI
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
Установите и запустите модель LLM локально с помощью Ollama. Посетите страницу загрузки (https://ollama.com/).
2.1 Llama2 - запустите ollama run llama2
на терминале. Посетите для получения дополнительной информации о llama2.
2.2 Codellama - запустить ollama run codellama
на терминале. Посетите для получения дополнительной информации о коделламе.
Необязательно, требуется только при выполнении примеров Milvus.
Прежде чем выполнять примеры, зависящие от Milvus, убедитесь, что хранилище векторов Milvus запущено и работает.
Milvus
Vector. Выполните sudo docker compose -f docker-compose-milvus.yml up -d
из корня проекта. Имя файла/папки | Рамки(ы) | Оптимизация/Точная настройка | Трубопровод |
---|---|---|---|
rag_pdf_1.py | ЛамаИндекс + Милвус | ТРЯПКА | Загрузка PDF-каталога, извлечение данных и индексирование простым способом, встраивание индекса в векторное хранилище, пользовательские запросы |
rag_pdf_2.py | ЛамаИндекс | ТРЯПКА | Загрузка каталога PDF, извлечение данных с помощью окна предложения, встраивание индекса в локальное хранилище, пользовательские запросы |
rag_pdf_3.py | ЛамаИндекс + Милвус | ТРЯПКА | Загрузка каталога PDF, извлечение данных с помощью окна предложения, вставка индекса в векторное хранилище, пользовательские запросы |
rag_pdf_4.py | Индекс Ламы + Цветность | ТРЯПКА | Вскоре |
rag_pdf_5.py | LlamaIndex + сосновая шишка | ТРЯПКА | Вскоре |
rag_pdf_6.py | ЛамаИндекс + Qdrant | ТРЯПКА | Вскоре |
rag_pdf_7.py | LlamaIndex + Рэй + Милвус | ТРЯПКА | Вскоре |
rag_pdf_8.py | LlamaIndex + Рэй + Милвус | ТРЯПКА | Вскоре |
python3 rag_pdf_1.py