자체 호스팅 AI 스타터 키트 는 포괄적인 로컬 AI 및 로우 코드 개발 환경을 신속하게 초기화하도록 설계된 오픈 소스 Docker Compose 템플릿입니다.
https://github.com/n8n-io에서 선별한 이 솔루션은 자체 호스팅 n8n 플랫폼과 호환 가능한 AI 제품 및 구성 요소의 선별된 목록을 결합하여 자체 호스팅 AI 워크플로 구축을 빠르게 시작할 수 있습니다.
팁
공지사항 읽기
✅ 자체 호스팅 n8n - 400개 이상의 통합과 고급 AI 구성 요소를 갖춘 로우 코드 플랫폼
✅ Ollama - 최신 로컬 LLM을 설치하고 실행하는 크로스 플랫폼 LLM 플랫폼
✅ Qdrant - 포괄적인 API를 갖춘 오픈 소스, 고성능 벡터 저장소
✅ PostgreSQL - 데이터 엔지니어링 세계의 주력 제품으로, 대량의 데이터를 안전하게 처리합니다.
️ 약속 예약을 위한 AI 에이전트
️ 데이터 유출 없이 회사 PDF를 안전하게 요약하세요
️ 향상된 회사 커뮤니케이션 및 IT 운영을 위한 더 스마트한 Slack Bots
️ 최소한의 비용으로 민간 금융 문서 분석
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
메모
이전에 Docker와 함께 Nvidia GPU를 사용한 적이 없다면 Ollama Docker 지침을 따르십시오.
M1 이상의 프로세서가 탑재된 Mac을 사용하는 경우 불행하게도 GPU를 Docker 인스턴스에 노출할 수 없습니다. 이 경우 두 가지 옵션이 있습니다.
Mac에서 Ollama를 실행하려면 Ollama 홈페이지에서 설치 지침을 확인하고 다음과 같이 스타터 키트를 실행하세요.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
아래의 빠른 시작 설정을 따른 후 http://host.docker.internal:11434/
호스트로 사용하여 Ollama 자격 증명을 변경합니다.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
자체 호스팅 AI 스타터 키트의 핵심은 네트워크 및 스토리지 설정으로 사전 구성된 Docker Compose 파일이므로 추가 설치의 필요성이 최소화됩니다. 위의 설치 단계를 완료한 후 아래 단계에 따라 시작하세요.
언제든지 n8n을 열려면 브라우저에서 http://localhost:5678/을 방문하세요.
n8n 인스턴스를 사용하면 400개 이상의 통합과 AI 에이전트, 텍스트 분류자 및 정보 추출기 노드와 같은 기본 및 고급 AI 노드 제품군에 액세스할 수 있습니다. 모든 것을 로컬로 유지하려면 언어 모델에 Ollama 노드를 사용하고 벡터 저장소로 Qdrant를 사용하는 것을 잊지 마세요.
메모
이 스타터 키트는 자체 호스팅 AI 워크플로를 시작하는 데 도움이 되도록 설계되었습니다. 프로덕션 환경에 완전히 최적화되지는 않았지만 개념 증명 프로젝트에 잘 작동하는 강력한 구성 요소를 결합합니다. 특정 요구 사항에 맞게 사용자 정의할 수 있습니다.
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n은 AI 개념과 노드를 빠르게 시작하는 데 유용한 콘텐츠로 가득합니다. 문제가 발생하면 지원으로 이동하세요.
더 많은 AI 워크플로 아이디어를 보려면 공식 n8n AI 템플릿 갤러리를 방문하세요. 각 워크플로에서 워크플로 사용 버튼을 선택하여 워크플로를 로컬 n8n 인스턴스로 자동으로 가져옵니다.
자체 호스팅 AI 스타터 키트는 n8n 컨테이너에 마운트되고 n8n이 디스크의 파일에 액세스할 수 있도록 하는 공유 폴더(기본적으로 동일한 디렉터리에 위치)를 생성합니다. n8n 컨테이너 내의 이 폴더는 /data/shared
에 있습니다. 이는 로컬 파일 시스템과 상호 작용하는 노드에서 사용해야 하는 경로입니다.
로컬 파일 시스템과 상호 작용하는 노드
이 프로젝트는 Apache License 2.0에 따라 라이센스가 부여됩니다. 자세한 내용은 LICENSE 파일을 참조하세요.
n8n 포럼에서 대화에 참여하세요. 여기에서 다음을 수행할 수 있습니다.