Dokumentasi
Tujuan dari paket ini adalah untuk menawarkan sistem tanya jawab (RAG) yang nyaman dengan konfigurasi berbasis YAML sederhana yang memungkinkan interaksi dengan beberapa koleksi dokumen lokal. Perhatian khusus diberikan pada perbaikan dalam berbagai komponen sistem selain RAG dasar berbasis LLM - penguraian dokumen yang lebih baik, pencarian hibrid, pencarian yang diaktifkan HyDE, riwayat obrolan, tautan dalam, pemeringkatan ulang, kemampuan untuk menyesuaikan penyematan, dan banyak lagi . Paket ini dirancang untuk bekerja dengan Model Bahasa Besar (LLM) khusus – baik dari OpenAI atau diinstal secara lokal.
Format yang didukung
.md
- Membagi file berdasarkan komponen logis seperti judul, subjudul, dan blok kode. Mendukung fitur tambahan seperti membersihkan tautan gambar, menambahkan metadata khusus, dan banyak lagi..pdf
- parser berbasis MuPDF..docx
- parser khusus, mendukung tabel bersarang.Unstructured
:Dukungan untuk penguraian tabel melalui gmft sumber terbuka (https://github.com/conjuncts/gmft) atau Azure Document Intelligence.
Dukungan opsional untuk penguraian gambar menggunakan Gemini API.
Mendukung banyak koleksi dokumen, dan memfilter hasilnya berdasarkan koleksi.
Kemampuan untuk memperbarui penyematan secara bertahap, tanpa perlu mengindeks ulang seluruh basis dokumen.
Menghasilkan penyematan padat dari folder dokumen dan menyimpannya dalam database vektor (ChromaDB).
multilingual-e5-base
.instructor-large
.Menghasilkan penyematan jarang menggunakan SPLADE (https://github.com/naver/splade) untuk mengaktifkan pencarian hibrid (jarang + padat).
Mendukung strategi "Ambil dan Beri Peringkat Ulang" untuk pencarian semantik, lihat di sini.
ms-marco-MiniLM
yang asli, bge-reranker
yang lebih modern juga didukung.Mendukung HyDE (Hypothetical Document Embeddings) - lihat di sini.
Dukungan untuk multi-kueri, terinspirasi oleh RAG Fusion
- https://towardsdatascience.com/forget-rag-the-future-is-rag-fusion-1147298d8ad1
Mendukung riwayat obrolan opsional dengan kontekstualisasi pertanyaan
Memungkinkan interaksi dengan dokumen yang disematkan, secara internal mendukung model dan metode berikut (termasuk yang dihosting secara lokal):
Interoperabilitas dengan LiteLLM + Ollama melalui OpenAI API, mendukung ratusan model berbeda (lihat Konfigurasi model untuk LiteLLM)
Fitur lainnya
Telusuri Dokumentasi