オープンソースの AI を活用した検索エンジン。 (パープレキシティ クローン)
ローカル LLM ( llama3 、 gemma 、 mistral 、 phi3 )、 LiteLLM経由のカスタム LLM を実行するか、クラウド モデル ( Groq/Llama3 、 OpenAI/gpt4-o ) を使用します。
ご質問がございましたら、お気軽に Twitter で私にご連絡いただくか、問題を作成してください。
farfalle.dev (クラウドモデルのみ)
ollama serve
git clone https://github.com/rashadphz/farfalle.git
cd farfalle && cp .env-template .env
API キーを使用して .env を変更します (オプション、Ollama を使用する場合は必須ではありません)
アプリを起動します。
docker-compose -f docker-compose.dev.yaml up -d
アプリが起動するのを待ってから、http://localhost:3000 にアクセスします。
カスタム セットアップ手順については、custom-setup-instructions.md を参照してください。
バックエンドがデプロイされたら、Web サービス URL をクリップボードにコピーします。 https://some-service-name.onrender.com のようになります。
Vercel を使用してデプロイする場合は、コピーしたバックエンド URL をNEXT_PUBLIC_API_URL
環境変数で使用します。
これで完了です。 ?
Farfalle をデフォルトの検索エンジンとして使用するには、次の手順に従います。