โปรเจ็กต์นี้เป็นการใช้งานแบบอิง JavaScript โดยใช้สถาปัตยกรรมการเรียกข้อมูล-Augmented Generation (RAG) ที่เป็นนวัตกรรมใหม่ผ่าน LangChainJS ระบบนี้จะรวมตัวดึงเอกสารและตัวสร้างการตอบสนองเข้าด้วยกันอย่างมีประสิทธิภาพเพื่อจัดการกับคำถามที่ซับซ้อนและมีความแม่นยำสูง ส่วนประกอบ "Retriever" ทำหน้าที่เหมือนกับเครื่องมือค้นหาที่มีความแม่นยำภายในคลังเอกสาร โดยแยกข้อมูลที่เกี่ยวข้องมากที่สุดตามคำค้นหาของผู้ใช้ หลังจากการดึงข้อมูล "ตัวสร้าง" จะสังเคราะห์ข้อมูลนี้ให้เป็นคำตอบที่เกี่ยวข้องและสอดคล้องตามบริบท วิธีการแบบสององค์ประกอบนี้เหมาะสำหรับงานที่ต้องการการสังเคราะห์และทำความเข้าใจเนื้อหาในเชิงลึก เช่น การสร้างบทสรุปโดยละเอียด หรือการตอบคำถามที่หลากหลายจากแหล่งเอกสารที่หลากหลาย แอปพลิเคชันนี้จัดการเอกสารจำนวนมากและการสืบค้นที่ซับซ้อนได้อย่างง่ายดาย ทำให้เป็นเครื่องมือที่มีค่าสำหรับนักวิจัย ผู้สร้างเนื้อหา และนักวิเคราะห์ข้อมูล
โปรเจ็กต์ใช้ Ollama กับ LangChainJS ดังนั้นตรวจสอบให้แน่ใจว่าคุณได้ติดตั้ง Ollama แล้ว หลังจากติดตั้งแล้ว ให้รัน
$ ollama pull gemma:2b-instruct-q5_0
$ ollama pull nomic-embed-text
ในพาวเวอร์เชลล์
โปรเจ็กต์ยังใช้ ChromaDB เป็นฐานข้อมูลสำหรับการจัดเก็บเวกเตอร์ ดังนั้นให้ดาวน์โหลดและติดตั้ง Docker จาก https://www.docker.com/ และเรียกใช้
$ docker pull chromadb/chroma
$ docker run -p 8000:8000 chromadb/chroma
ใน PowerShell เพื่อดึงอิมเมจ chromaDB และเริ่มต้นคอนเทนเนอร์ chromaDB การฝังจะถูกสร้างขึ้นและจัดเก็บไว้ในคอนเทนเนอร์ chromaDB ที่สร้างขึ้นในนักเทียบท่า
โคลนพื้นที่เก็บข้อมูลโดยใช้ git clone
หลังจากการโคลน ให้ไปที่ไดเร็กทอรีรากและรัน npm install
ในเทอร์มินัลเพื่อติดตั้งแพ็คเกจ
หลังจากติดตั้งแพ็คเกจสำเร็จแล้ว ให้รัน npm start
ในเทอร์มินัล คุณจะได้รับข้อผิดพลาดในครั้งแรก จากนั้นเรียกใช้ npm start
อีกครั้งเพื่อให้โค้ดทำงานได้
ยินดีต้อนรับการมีส่วนร่วมในโครงการ! โปรดสร้าง Pull Requests หรือส่งปัญหาเพื่อแนะนำการเปลี่ยนแปลงในพื้นที่เก็บข้อมูล หรือรายงานข้อบกพร่อง
โครงการนี้ได้รับอนุญาตภายใต้ใบอนุญาต MIT - ดูรายละเอียดในไฟล์ใบอนุญาต