เอกสารประกอบ
วัตถุประสงค์ของแพ็คเกจนี้คือการนำเสนอระบบการตอบคำถาม (RAG) ที่สะดวกสบายพร้อมการกำหนดค่าแบบ YAML ที่เรียบง่ายซึ่งช่วยให้สามารถโต้ตอบกับคอลเลกชันเอกสารในเครื่องหลายชุด มีการให้ความสนใจเป็นพิเศษในการปรับปรุงองค์ประกอบต่างๆ ของระบบ นอกเหนือจาก RAG ที่ใช้ LLM พื้นฐาน - การแยกวิเคราะห์เอกสารที่ดีขึ้น การค้นหาแบบไฮบริด การค้นหาที่เปิดใช้งาน HyDE ประวัติการแชท การเชื่อมโยงในเชิงลึก การจัดอันดับใหม่ ความสามารถในการปรับแต่งการฝัง และอื่นๆ . แพ็คเกจนี้ออกแบบมาเพื่อทำงานกับ Large Language Models (LLM) แบบกำหนดเอง ไม่ว่าจะมาจาก OpenAI หรือติดตั้งในเครื่อง
รูปแบบที่รองรับ
.md
- แบ่งไฟล์ตามส่วนประกอบเชิงตรรกะ เช่น ส่วนหัว หัวข้อย่อย และบล็อกโค้ด รองรับฟีเจอร์เพิ่มเติม เช่น การล้างลิงก์รูปภาพ การเพิ่มข้อมูลเมตาที่กำหนดเอง และอื่นๆ.pdf
- ตัวแยกวิเคราะห์ที่ใช้ MuPDF.docx
- ตัวแยกวิเคราะห์แบบกำหนดเอง รองรับตารางที่ซ้อนกันUnstructured
:รองรับการแยกวิเคราะห์ตารางผ่านโอเพ่นซอร์ส gmft (https://github.com/conjuncts/gmft) หรือ Azure Document Intelligence
การสนับสนุนเพิ่มเติมสำหรับการแยกวิเคราะห์รูปภาพโดยใช้ Gemini API
รองรับการรวบรวมเอกสารหลายชุด และกรองผลลัพธ์ตามคอลเลกชัน
ความสามารถในการอัปเดตการฝังแบบเพิ่มทีละน้อย โดยไม่จำเป็นต้องสร้างดัชนีฐานเอกสารทั้งหมดใหม่
สร้างการฝังแบบหนาแน่นจากโฟลเดอร์เอกสารและจัดเก็บไว้ในฐานข้อมูลเวกเตอร์ (ChromaDB)
multilingual-e5-base
instructor-large
สร้างการฝังแบบกระจายโดยใช้ SPLADE (https://github.com/naver/splade) เพื่อเปิดใช้งานการค้นหาแบบไฮบริด (เบาบาง + หนาแน่น)
รองรับกลยุทธ์ "ดึงข้อมูลและจัดอันดับใหม่" สำหรับการค้นหาเชิงความหมาย ดูที่นี่
ms-marco-MiniLM
เดิมแล้ว ยังรองรับ bge-reranker
ที่ทันสมัยกว่าด้วยรองรับ HyDE (การฝังเอกสารสมมุติ) - ดูที่นี่
รองรับการสืบค้นหลายรายการโดยได้รับแรงบันดาลใจจาก RAG Fusion
- https://towardsdatascience.com/forget-rag-the-future-is-rag-fusion-1147298d8ad1
รองรับประวัติการแชทเสริมพร้อมบริบทคำถาม
อนุญาตให้โต้ตอบกับเอกสารที่ฝังไว้ รองรับโมเดลและวิธีการต่อไปนี้ภายใน (รวมถึงโฮสต์ในเครื่อง):
การทำงานร่วมกันกับ LiteLLM + Ollama ผ่าน OpenAI API ซึ่งรองรับโมเดลต่างๆ หลายร้อยรุ่น (ดูการกำหนดค่าโมเดลสำหรับ LiteLLM)
คุณสมบัติอื่นๆ
เรียกดูเอกสารประกอบ