Документация
Цель этого пакета — предложить удобную систему ответов на вопросы (RAG) с простой конфигурацией на основе YAML, которая позволяет взаимодействовать с несколькими коллекциями локальных документов. Особое внимание уделяется улучшениям различных компонентов системы в дополнение к базовым RAG на основе LLM — улучшенный анализ документов, гибридный поиск, поиск с поддержкой HyDE, история чата, глубокие ссылки, повторное ранжирование, возможность настройки встраивания и многое другое. . Пакет предназначен для работы с пользовательскими моделями большого языка (LLM) — как из OpenAI, так и установленными локально.
Поддерживаемые форматы
.md
— разделяет файлы на основе логических компонентов, таких как заголовки, подзаголовки и блоки кода. Поддерживает дополнительные функции, такие как очистка ссылок на изображения, добавление пользовательских метаданных и многое другое..pdf
— парсер на основе MuPDF..docx
— собственный парсер, поддерживает вложенные таблицы.Unstructured
препроцессором:Поддержка анализа таблиц через gmft с открытым исходным кодом (https://github.com/conjuncts/gmft) или Azure Document Intelligence.
Дополнительная поддержка анализа изображений с использованием Gemini API.
Поддерживает множественную коллекцию документов и фильтрацию результатов по коллекции.
Возможность постепенного обновления вложений без необходимости переиндексации всей базы документов.
Генерирует плотные вложения из папки документов и сохраняет их в векторной базе данных (ChromaDB).
multilingual-e5-base
.instructor-large
.Генерирует разреженные вложения с помощью SPLADE (https://github.com/naver/splade) для включения гибридного поиска (разреженный + плотный).
Поддерживает стратегию «Извлечение и повторное ранжирование» для семантического поиска, см. здесь.
ms-marco-MiniLM
, поддерживается более современный bge-reranker
.Поддерживает HyDE (встраивание гипотетических документов) — см. здесь.
Поддержка множественных запросов, вдохновленная RAG Fusion
— https://towardsdatascience.com/forget-rag-the-future-is-rag-fusion-1147298d8ad1
Поддерживает дополнительную историю чата с контекстуализацией вопросов.
Позволяет взаимодействовать со встроенными документами, внутренне поддерживая следующие модели и методы (в том числе локально размещенные):
Взаимодействие с LiteLLM + Ollama через OpenAI API, поддержка сотен различных моделей (см. Конфигурацию модели для LiteLLM).
Другие особенности
Просмотр документации