LLM 출력의 정확성과 관련성을 향상시키기 위해 RAG(LangChain 및 PostgreSQL 사용) 구현
이 저장소에는 Go 프로그래밍 언어를 활용하여 벡터 데이터베이스 및 langchaingo와 함께 검색 증강 생성(RAG)과 같은 기술을 사용하는 방법을 다루는 Go 애플리케이션용 검색 증강 생성(RAG)을 사용하는 방법 블로그 게시물에 해당하는 소스 코드가 포함되어 있습니다.
LLM(대형 언어 모델) 및 기타 기반 모델은 많은 자연어 처리(NLP) 작업에서 우수한 성능을 발휘할 수 있도록 대규모 데이터 코퍼스에 대해 훈련되었습니다. 그러나 가장 중요한 제한 사항 중 하나는 대부분의 기초 모델과 LLM이 특정 지식 한계(예: 2023년 1월)가 있는 정적 데이터 세트를 사용한다는 것입니다.
RAG(Retrieval Augmented Generation)는 응답 생성 프로세스 중에 외부 정보를 동적으로 검색하여 LLM을 향상시켜 모델의 지식 기반을 원래 교육 데이터 이상으로 확장합니다. RAG 기반 솔루션에는 가장 최근의 관련 정보를 검색하기 위해 인덱싱 및 쿼리할 수 있는 벡터 저장소가 통합되어 있어 LLM의 지식을 훈련 한계 이상으로 확장합니다. RAG가 장착된 LLM이 응답을 생성해야 하는 경우 먼저 벡터 저장소에 쿼리하여 쿼리와 관련된 최신 정보를 찾습니다. 이 프로세스를 통해 모델의 출력은 기존 지식을 기반으로 하는 것이 아니라 최신 정보로 보강되어 응답의 정확성과 관련성이 향상됩니다.
자세한 내용은 기여를 참조하세요.
이 라이브러리는 MIT-0 라이선스에 따라 라이선스가 부여됩니다. 라이센스 파일을 참조하십시오.