오픈소스 AI 기반 검색 엔진. (퍼플렉시티 클론)
로컬 LLM( llama3 , gemma , mistral , phi3 ), LiteLLM을 통해 사용자 정의 LLM을 실행하거나 클라우드 모델( Groq/Llama3 , OpenAI/gpt4-o )을 사용하세요.
질문이 있으시면 언제든지 Twitter로 연락하시거나 이슈를 만들어주세요.
Farfalle.dev(클라우드 모델만 해당)
ollama serve
시작 git clone https://github.com/rashadphz/farfalle.git
cd farfalle && cp .env-template .env
API 키로 .env 수정(선택 사항, Ollama를 사용하는 경우 필요하지 않음)
앱을 시작합니다:
docker-compose -f docker-compose.dev.yaml up -d
앱이 시작될 때까지 기다린 후 http://localhost:3000을 방문하세요.
사용자 정의 설정 지침은 custom-setup-instructions.md를 참조하세요.
백엔드가 배포된 후 웹 서비스 URL을 클립보드에 복사합니다. https://some-service-name.onrender.com과 같아야 합니다.
Vercel로 배포할 때 NEXT_PUBLIC_API_URL
환경 변수에 복사된 백엔드 URL을 사용하세요.
이제 끝났습니다! ?
Farfalle을 기본 검색 엔진으로 사용하려면 다음 단계를 따르세요.