AI Companion은 로컬 컴퓨터에서 AI 챗봇을 생성하는 빠르고 간단하며 가볍고 편리한 방법을 제공하는 것을 목표로 하는 프로젝트입니다. 외부 API나 라이브러리 설치가 필요하지 않으며 운영 체제에 해당하는 바이너리 파일을 설치하기만 하면 됩니다. 선택한 모델을 다운로드하면 LLM 채팅용 WebUI, AI 캐릭터와 롤플레잉용 WebUI 또는 AI 챗봇이 필요한 다른 프로젝트용 API로 도구 사용을 시작할 수 있습니다.
이 프로젝트에는 단기 기억, CUDA, OpenCL 및 Metal 지원, 장기 기억, 대화 조정, 시간 인식, 채팅을 통한 학습, REST API로 작동하는 기능, 문자 카드 읽기, WebUI를 사용하면 데이터 편집, 구성 편집, 메시지 전송, 편집 및 삭제가 가능합니다.
여기에서 운영 체제 및 장치에 적합한 바이너리(예: ai-companion-windows-cuda.exe )를 다운로드한 다음 .gguf 확장자를 가진 llm 모델(예: 이 모델)을 설치하고, 다음으로 ai-companion 바이너리 파일을 실행합니다. http://localhost:3000 에서 웹 브라우저를 열면 AI Companion WebUI가 표시됩니다. 다음으로 웹 사이트에서 기어 아이콘을 클릭하고 config 로 이동하여 Path to your Large Language Model(LLM)을 path로 바꾸세요. 드라이브에 있는 .gguf 모델에 추가한 후 동반자와 채팅을 시작할 수 있습니다!
테스트를 거쳐 작동하는 AI 모델의 작은 목록:
그리고 .gguf 형식의 다른 많은 LLM 모델
API 문서는 여기에서 찾을 수 있습니다.
프로젝트에서 ai-companion 백엔드를 사용할 수 있는 Python 라이브러리를 찾고 있다면 여기에서 ai-companion-py를 찾을 수 있습니다.
실행 파일을 빌드하려면 Node.js 및 npm, Rust 및 화물이 필요합니다.
소프트웨어가 CUDA, OpenCL 및 Metal에서 작동하도록 하려면 이 문서의 단계와 유사한 단계도 따라야 합니다.
저장소의 git 복제본을 만듭니다.
git clone https://github.com/Hukasx0/ai-companion
폴더로 이동
cd ai-companion/
노드 모듈 설치
npm i
모든 것을 하나의 바이너리로 컴파일
npm run build-full
또는
CUDA 지원을 통해 모든 것을 하나의 바이너리로 컴파일
npm run build-full-cuda
또는
OpenCL 지원을 통해 모든 것을 하나의 바이너리로 컴파일
npm run build-full-opencl
또는
Metal 지원을 통해 모든 것을 하나의 바이너리로 컴파일
npm run build-full-metal
(컴파일 후 바이너리는 ai-companion/backend/target/release에 있어야 합니다)
그런 다음 설치와 동일하게 진행하십시오.