私はそれを維持する時間がありません、そしてそれは生産対応になるために多くのアップグレードが必要です。メンテナンスを引き継ぐことに興味がある場合はお知らせください。
LlamainDexを使用して、ドキュメントからテキストデータを分析および操作するために使用できるLLMエージェントを構築および展開する簡単なフレームワーク。
ライセンス:MIT
Delphicの最初のリリースは、OpenaiのAPIのみに基づいています。サードパーティAPIによって自己ホストされているか、搭載されていても、他の大規模な言語モデル(LLM)をサポートすることを完全に計画しています。ただし、現時点では、2023年4月の時点で、Open AIのAPIはおそらく展開が最も能力が高く、最も簡単な依然として依然としてです。このフレームワークはLlamaindexに基づいており、Langchainと完全に互換性があるため、他のLLMを使用するのは非常に簡単です。ただし、現時点では、このツールを自己ホストしている場合でも、テキストはOpenaIで処理されます。 Openaiの利用規約があなたに問題を提示した場合、私たちはそれをあなたに任せて解決します。このツールとOpenai APIの使用から承認する問題については責任を負いません。
起きて実行する最速の方法は、このレポをクローンしてから、アプリケーションをローカルに展開することです。
これらの指示に従うには、DockerとDockerが作曲する必要があります。 DigitalOceanは、優れたクラウドホストであることに加えて、これらをセットアップするための最も簡単な指示をいくつか持っています。こちらからチェックするか、Dockerの公式指示にアクセスしてください。
git clone
cd delphic
mkdir -p ./.envs/.local/
cp -a ./docs/sample_envs/local/.frontend ./frontend
cp -a ./docs/sample_envs/local/.django ./.envs/.local
cp -a ./docs/sample_envs/local/.postgres ./.envs/.local
次に、.django構成を更新します(おそらく.postgres
も編集してデータベースユーザーに一意のパスワードを提供します)。
次に、Docker画像を作成します。
sudo docker-compose --profile fullstack -f local.yml build
sudo docker-compose --profile fullstack -f local.yml up
localhost:3000
に移動して、フロントエンドを表示します。
フロントエンドを積極的に開発したい場合は、すべての変更に完全なコンテナ再構築が必要なため、 --profile=fullstack
フラグを使用しないことをお勧めします。代わりに、上記のステップ#5の代わりに開発環境を参照してください。
これは、Delphic.opensource.legalのようなある種の完全に認定されたドメインで、アプリケーションをインターネットで利用可能にすることを前提としています。これを行うには、いくつかの構成を更新する必要があります。
TODO-ドキュメントを挿入します
アプリケーションを実際に使用するには(現時点では、特定のモデルを認証されていないユーザーと共有できるようにするために)ログインが必要です。スーパーユーザーまたは非監督者のいずれかを使用できます。どちらの場合でも、誰かが最初にコンソールを使用してスーパーユーザーを作成する必要があります。
なぜDjango Superuserをセットアップするのですか? Django Superuserには、アプリケーションのすべての許可があり、ユーザー、コレクション、その他のデータの作成、変更、削除など、システムのすべての側面を管理できます。スーパーユーザーをセットアップすると、アプリケーションを完全に制御および管理できます。
**現時点では、ログインしているユーザーはすべての権限を持っています。 OpenContracts向けに開発したより正確でロールベースのアクセス制御モジュールを実装する予定ですが、今のところ、あらゆるタイプのログイン資格情報を持っている人なら誰でもコレクションを作成および削除できることに注意してください。コレクションの作成には、Openaiクレジット /コストの費用が使用されます
sudo docker-compose -f local.yml run django python manage.py createsuperuser
展開手順に従ってローカルでDelphicアプリケーションを起動します。
警告 - OpenaiをLLMエンジンとして使用している場合、コレクションインタラクションはAPIクレジット /コストマネーを使用します。独自のOpenAI APIキーを使用している場合、ユースケースには適していない可能性のあるサービス条件も受け入れました。独自の勤勉をしてください。
質問回答インターフェイスにアクセスするには、フルスタックを表示し、 http://localhost:3000
にアクセスしてください
Delphicに貢献したり、独自のバージョンをロールしたりする場合は、開発環境を確実にセットアップすることをお勧めします。
バックエンドでは、事前コミットのフォーマットチェックを実行するには、動作するPython環境が必要です。 System Pythonインタープリターを使用できますが、Pyenvを使用してPython> = 3.10に基づいて仮想ENVを作成することをお勧めします。
次に、ローカルリポジトリのルートで、これらのコマンドを実行します。
pip install -r ./requirements/local.txt
pre-commit install
これで、コミットをステージングすると、コードのフォーマットとスタイルチェックが自動的に実行されます。
./tests
に基本的なテストスイートがあります。タイピングしてテストを実行できます。
sudo docker-compose -f local.yml run django python manage.py test
フロントエンドでは、ノードV18.15.0を使用しています。 NVMを使用していると仮定しています。まだフロントエンドテストはありません(申し訳ありません)。
FrontEndディレクトリにCD、FrontEnd依存関係をインストールして開発サーバーを開始します( NVMがインストールされていると仮定します。今すぐインストールしていない場合は):
cd frontend
nvm use
npm install yarn
yarn install
yarn start
を入力するとhttp://localhost:3000
でフロントエンド開発サーバーが表示されます。適切に動作するために、バックエンドを起動する必要があります。
fullstack
プロファイルフラグなしでスタックを作成しますフルスタックフラグなしでバックエンドを起動します:
sudo docker-compose -f local.yml up