이 프로젝트는 LangChainJS를 통해 혁신적인 RAG(Retrieval-Augmented Generation) 아키텍처를 사용하는 JavaScript 기반 구현입니다. 이 시스템은 문서 검색기와 응답 생성기를 효과적으로 결합하여 복잡한 쿼리를 높은 정확도로 처리합니다. "Retriever" 구성 요소는 문서 모음 내에서 정밀 검색 도구처럼 작동하여 사용자 쿼리를 기반으로 가장 관련성이 높은 정보를 추출합니다. 검색 후 "생성기"는 이 정보를 일관되고 상황에 맞는 응답으로 합성합니다. 이 이중 구성 요소 접근 방식은 상세한 요약을 생성하거나 다양한 문서 소스의 다면적인 질문에 답하는 등 심층적인 콘텐츠 합성 및 이해가 필요한 작업에 이상적입니다. 이 애플리케이션은 수많은 문서와 복잡한 쿼리를 쉽게 처리하므로 연구자, 콘텐츠 제작자 및 데이터 분석가에게 유용한 도구입니다.
프로젝트는 LangChainJS와 함께 Ollama를 사용하므로 Ollama가 설치되어 있는지 확인하십시오. 설치 후 실행
$ ollama pull gemma:2b-instruct-q5_0
$ ollama pull nomic-embed-text
파워쉘에서.
또한 프로젝트는 ChromaDB를 벡터 저장용 데이터베이스로 사용하므로 https://www.docker.com/에서 Docker를 다운로드하여 설치하고 실행합니다.
$ docker pull chromadb/chroma
$ docker run -p 8000:8000 chromadb/chroma
powershell에서 크로마DB 이미지를 가져오고 크로마DB 컨테이너를 시작합니다. 임베딩은 docker에서 생성된chromDB 컨테이너 내부에 생성되고 저장됩니다.
git clone
사용하여 저장소를 복제합니다.
복제 후 루트 디렉터리로 이동하여 패키지 설치를 위해 터미널에서 npm install
실행합니다.
패키지가 성공적으로 설치되면 터미널에서 npm start
실행합니다. 처음에는 오류가 발생하고 코드가 작동하려면 npm start
다시 실행하세요.
프로젝트에 대한 기여를 환영합니다! 끌어오기 요청을 생성하거나 이슈를 제출하여 리포지토리에 대한 변경 사항을 제안하거나 버그를 보고하십시오.
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 LICENSE 파일을 참조하세요.