나는 그것을 유지할 시간이 없으며 생산 준비가 되려면 많은 업그레이드가 필요합니다. 유지 보수를 인수하는 데 관심이 있으시면 알려주십시오.
llamaindex를 사용하여 문서에서 텍스트 데이터를 분석하고 조작하는 데 사용할 수있는 LLM 에이전트를 구축하고 배포하는 간단한 프레임 워크.
라이센스 : MIT
Delphic의 초기 출시는 OpenAI의 API 만 기반으로합니다. 우리는 타사 API에 의해 자체 주최 또는 구동되는 다른 대형 언어 모델 (LLM)을 완전히 지원할 계획입니다. 그러나 현재 2023 년 4 월 현재 AI의 API는 아마도 가장 유능하고 쉽게 배포 할 수 있습니다. 이 프레임 워크는 llamaindex를 기반으로하며 Langchain과 완전히 호환되므로 다른 LLM을 사용하기가 매우 쉽습니다. 그러나 현재이 도구를 자체 주최하더라도 텍스트는 OpenAI로 처리됩니다. OpenAi의 서비스 약관이 귀하에게 문제를 제기하는 경우, 우리는 당신에게 해결하기 위해 당신에게 맡깁니다. 이 도구 및 OpenAI API의 사용에서 발생하는 문제에 대해서는 책임이 없습니다.
일어나거나 실행하는 가장 빠른 방법은이 repo를 복제 한 다음 응용 프로그램을 로컬로 배포하는 것입니다.
이 지침을 따르려면 Docker와 Docker Compose가 필요합니다. DigitalOcean은 우수한 클라우드 호스트 외에도이를 설정하는 데 가장 쉽게 따르는 지침을 가지고 있습니다. 여기에서 확인하거나 Docker 공식 지침으로 이동하십시오.
git clone
cd delphic
mkdir -p ./.envs/.local/
cp -a ./docs/sample_envs/local/.frontend ./frontend
cp -a ./docs/sample_envs/local/.django ./.envs/.local
cp -a ./docs/sample_envs/local/.postgres ./.envs/.local
다음으로 .django 구성을 업데이트하십시오 (데이터베이스 사용자가 고유 한 비밀번호를 제공하기 위해 .postgres
편집하고 싶을 것입니다).
그런 다음 Docker 이미지를 작성하십시오.
sudo docker-compose --profile fullstack -f local.yml build
sudo docker-compose --profile fullstack -f local.yml up
localhost:3000
으로 이동하여 프론트 엔드를보십시오.
프론트 엔드를 적극적으로 개발하려면 모든 변경 사항에는 전체 컨테이너 재 구축이 필요하므로 --profile=fullstack
플래그를 사용 하지 마십시오 . 대신 위의 5 단계 대신 개발 환경을 참조하십시오.
이는 Delphic.opensource.legal과 같은 모든 종류의 자격을 갖춘 도메인에서 인터넷에 응용 프로그램을 사용할 수 있다고 가정합니다. 이렇게하려면 몇 가지 구성을 업데이트해야합니다.
TODO- 문서 삽입
실제로 응용 프로그램을 사용하려면 (현재, 우리는 특정 모델을 인증되지 않은 사용자와 공유 할 수 있도록하려면) 로그인이 필요합니다. 슈퍼 어우저 또는 비 슈퍼 루저를 사용할 수 있습니다. 두 경우 모두 누군가가 콘솔을 사용하여 먼저 슈퍼업자를 만들어야합니다.
왜 Django 슈퍼 유저를 설정합니까? Django Superuser는 응용 프로그램의 모든 권한을 가지고 있으며 사용자, 컬렉션 및 기타 데이터 작성, 수정 및 삭제를 포함하여 시스템의 모든 측면을 관리 할 수 있습니다. 슈퍼 사용자를 설정하면 응용 프로그램을 완전히 제어하고 관리 할 수 있습니다.
** 현재 로그인 한 사용자는 모든 권한이 있습니다. 우리는 OpenContracts를 위해 개발 한보다 정확한 역할 기반 액세스 제어 모듈을 구현할 계획이지만, 현재 모든 유형의 로그인 자격 증명이있는 사람은 컬렉션을 작성하고 삭제할 수 있습니다. 컬렉션 생성은 OpenAi 크레딧 / 비용을 사용합니다
sudo docker-compose -f local.yml run django python manage.py createsuperuser
배포 지침에 따라 Delphic 응용 프로그램을 로컬로 시작하십시오.
경고 - OpenAI를 LLM 엔진으로 사용하는 경우 컬렉션 상호 작용은 API 크레딧 / 비용 돈을 사용합니다. 자신의 OpenAI API 키를 사용하는 경우 사용 사례에 적합하지 않은 서비스 약관도 수락했습니다. 자신의 근면을하십시오.
질문 응답 인터페이스에 액세스하려면 풀 스택을 가져오고 http://localhost:3000
으로 이동하십시오.
Delphic에 기여하거나 자신의 버전을 롤하려면 개발 환경을 설정하는지 확인하십시오.
백엔드에서는 사전 커밋 포맷 점검을 실행하려면 작동하는 파이썬 환경이 있어야합니다. 시스템 Python 통역사를 사용할 수는 있지만 Pyenv를 사용하고 Python> = 3.10을 기반으로 가상 Env를 만드는 것이 좋습니다.
그런 다음 로컬 리포의 루트에서 다음과 같은 명령을 실행하십시오.
pip install -r ./requirements/local.txt
pre-commit install
이제 커밋을 무대에 올리면 OU AR 코드 포맷 및 스타일 점검이 자동으로 실행됩니다.
./tests
의 기본 테스트 스위트가 있습니다. 입력하여 테스트를 실행할 수 있습니다.
sudo docker-compose -f local.yml run django python manage.py test
프론트 엔드에서는 노드 v18.15.0을 사용하고 있습니다. 우리는 당신이 NVM을 사용하고 있다고 가정합니다. 아직 프론트 엔드 테스트가 없습니다 (죄송합니다).
CD Frontend Directory에 CD, Frontend Dependencies를 설치하고 개발 서버를 시작합니다 ( 참고, NVM이 설치되었다고 가정합니다. 지금 설치하지 않은 경우 ) :
cd frontend
nvm use
npm install yarn
yarn install
yarn start
입력하면 http://localhost:3000
에서 프론트 엔드 개발 서버가 나타납니다. 제대로 작동하려면 여전히 백엔드를 시작해야합니다.
fullstack
프로필 플래그없이 백엔드 Compose Stack을 실행하십시오FullStack 플래그없이 백엔드를 시작하십시오.
sudo docker-compose -f local.yml up