LLAMA_RAG_SYSTEM เป็นระบบ Generation-Augmented Generation (RAG) ที่แข็งแกร่งซึ่งออกแบบมาเพื่อตอบสนองต่อการสืบค้นผู้ใช้กับคำตอบที่เกี่ยวข้องกับบริบท สร้างขึ้นโดยใช้โมเดล Llama และ Ollama ระบบนี้สามารถจัดการงานต่าง ๆ รวมถึงการตอบคำถามทั่วไปการสรุปเนื้อหาและการแยกข้อมูลจากเอกสาร PDF ที่อัปโหลด สถาปัตยกรรมใช้ Chromadb สำหรับการฝังเอกสารที่มีประสิทธิภาพและการดึงข้อมูลในขณะเดียวกันก็รวมความสามารถในการขูดเว็บเพื่อดึงข้อมูลที่ทันสมัยจากอินเทอร์เน็ต
นี่คือแวบหนึ่งของอินเทอร์เฟซแอป Gradio:
- โปรดทราบ: โครงการนี้กำลังอยู่ในระหว่างการพัฒนา ยินดีต้อนรับความคิดเห็นและการมีส่วนร่วมของคุณ!
Ollama เป็นตัวเลือกที่ยอดเยี่ยมสำหรับรูปแบบการเรียนรู้ของเครื่องจักรในพื้นที่ด้วยเหตุผลหลายประการ:
โครงการจัดขึ้นดังนี้:
project/
├── core/
│ ├── embedding.py # Embedding-related functionality
│ ├── document_utils.py # Functions to handle document loading and processing
│ ├── query.py # Query document functionality
│ ├── generate.py # Response generation logic
│ ├── web_scrape.py # Web scraping functionality
│
├── scripts/
│ ├── run_flask.py # Script to run Flask API
│ ├── run_gradio.py # Script to run Gradio interface
│
├── chromadb_setup.py # ChromaDB setup and connection
│
├── README.md # Project documentation
หากต้องการตั้งค่า LLAMA_RAG_SYSTEM ให้ทำตามขั้นตอนเหล่านี้:
โคลนที่เก็บ:
git clone https://github.com/NimaVahdat/Llama_RAG_System.git
cd Llama_RAG_System
ตรวจสอบให้แน่ใจว่า Chromadb และบริการที่จำเป็นอื่น ๆ กำลังทำงานตามต้องการ
ในการเริ่มต้น Flask API ให้เรียกใช้คำสั่งต่อไปนี้:
python -m scripts.run_flask
ในการเปิดตัวอินเทอร์เฟซ Gradio ให้ดำเนินการ:
python -m scripts.run_gradio
หลังจากเรียกใช้สคริปต์ทั้งสองแล้วคุณจะสามารถโต้ตอบกับระบบผ่านเว็บอินเตอร์เฟสที่ให้ไว้
ยินดีต้อนรับ! หากคุณมีคำแนะนำสำหรับการปรับปรุงหรือคุณสมบัติโปรดแยกที่เก็บและส่งคำขอดึง
โครงการนี้ได้รับใบอนุญาตภายใต้ใบอนุญาต MIT - ดูไฟล์ใบอนุญาตสำหรับรายละเอียด
สำหรับข้อสงสัยหรือการสนับสนุนใด ๆ โปรดติดต่อฉัน