开源人工智能驱动的搜索引擎。 (困惑克隆)
运行本地 LLM( llama3 、 gemma 、 milstra 、 phi3 )、通过LiteLLM自定义 LLM 或使用云模型( Groq/Llama3 、 OpenAI/gpt4-o )
如果您有任何疑问,请随时在 Twitter 上与我联系或创建问题。
farfalle.dev(仅限云模型)
ollama serve
git clone https://github.com/rashadphz/farfalle.git
cd farfalle && cp .env-template .env
使用您的 API 密钥修改 .env(可选,如果使用 Ollama,则不需要)
启动应用程序:
docker-compose -f docker-compose.dev.yaml up -d
等待应用程序启动,然后访问 http://localhost:3000。
有关自定义设置说明,请参阅 custom-setup-instructions.md
部署后端后,将 Web 服务 URL 复制到剪贴板。它应该类似于:https://some-service-name.onrender.com。
使用 Vercel 进行部署时,请在NEXT_PUBLIC_API_URL
环境变量中使用复制的后端 URL。
你就完成了! ?
要将 Farfalle 用作默认搜索引擎,请按照下列步骤操作: