開源人工智慧驅動的搜尋引擎。 (困惑克隆)
運行本地 LLM( llama3 、 gemma 、 milstra 、 phi3 )、透過LiteLLM自訂 LLM 或使用雲端模型( Groq/Llama3 、 OpenAI/gpt4-o )
如果您有任何疑問,請隨時在 Twitter 上與我聯繫或建立問題。
farfalle.dev(僅限雲模式)
ollama serve
git clone https://github.com/rashadphz/farfalle.git
cd farfalle && cp .env-template .env
使用您的 API 金鑰修改 .env(可選,如果使用 Ollama,則不需要)
啟動應用程式:
docker-compose -f docker-compose.dev.yaml up -d
等待應用程式啟動,然後訪問 http://localhost:3000。
有關自訂設定說明,請參閱 custom-setup-instructions.md
部署後端後,將 Web 服務 URL 複製到剪貼簿。它應該類似於:https://some-service-name.onrender.com。
使用 Vercel 進行部署時,請在NEXT_PUBLIC_API_URL
環境變數中使用複製的後端 URL。
你就完成了! ?
若要將 Farfalle 用作預設搜尋引擎,請依照下列步驟操作: