LLAMA_RAG_SYSTEM 은 풍부하고 상황에 맞는 답변으로 사용자 쿼리에 대화식으로 응답하도록 설계된 강력한 검색 검색 생성 (RAG) 시스템입니다. Llama Model과 Ollama를 사용하여 구축 된이 시스템은 일반적인 질문에 대한 답변, 컨텐츠 요약 및 업로드 된 PDF 문서에서 정보 추출을 포함하여 다양한 작업을 처리 할 수 있습니다. 이 아키텍처는 효율적인 문서 임베딩 및 검색을 위해 ChromADB를 사용하고 웹 스크래핑 기능을 통합하여 인터넷에서 최신 정보를 가져옵니다.
Gradio 앱 인터페이스를 엿볼 수 있습니다.
? 참고 :이 프로젝트는 현재 개발 중입니다. 귀하의 의견과 기여를 환영합니다!
Ollama 는 여러 가지 이유로 기계 학습 모델을 로컬로 운영하기위한 훌륭한 옵션입니다.
프로젝트는 다음과 같이 구성됩니다.
project/
├── core/
│ ├── embedding.py # Embedding-related functionality
│ ├── document_utils.py # Functions to handle document loading and processing
│ ├── query.py # Query document functionality
│ ├── generate.py # Response generation logic
│ ├── web_scrape.py # Web scraping functionality
│
├── scripts/
│ ├── run_flask.py # Script to run Flask API
│ ├── run_gradio.py # Script to run Gradio interface
│
├── chromadb_setup.py # ChromaDB setup and connection
│
├── README.md # Project documentation
llama_rag_system을 설정하려면 다음 단계를 따르십시오.
저장소 복제 :
git clone https://github.com/NimaVahdat/Llama_RAG_System.git
cd Llama_RAG_System
ChromADB 및 기타 필요한 서비스가 필요에 따라 실행되고 있는지 확인하십시오.
플라스크 API를 시작하려면 다음 명령을 실행하십시오.
python -m scripts.run_flask
Gradio 인터페이스를 시작하려면 실행 :
python -m scripts.run_gradio
두 스크립트를 실행하면 제공된 웹 인터페이스를 통해 시스템과 상호 작용할 수 있습니다.
기부금을 환영합니다! 개선 또는 기능에 대한 제안이 있으면 저장소를 포크하고 풀 요청을 제출하십시오.
이 프로젝트는 MIT 라이센스에 따라 라이센스가 부여됩니다. 자세한 내용은 라이센스 파일을 참조하십시오.
문의 나 지원을 받으려면 저에게 연락하십시오.