O AI Starter Kit auto-hospedado é um modelo Docker Compose de código aberto projetado para inicializar rapidamente uma IA local abrangente e um ambiente de desenvolvimento de baixo código.
Com curadoria de https://github.com/n8n-io, ele combina a plataforma n8n auto-hospedada com uma lista selecionada de produtos e componentes de IA compatíveis para começar rapidamente a criar fluxos de trabalho de IA auto-hospedados.
Dica
Leia o anúncio
✅ N8n auto-hospedado – plataforma de baixo código com mais de 400 integrações e componentes avançados de IA
✅ Ollama - Plataforma LLM multiplataforma para instalar e executar os LLMs locais mais recentes
✅ Qdrant – armazenamento de vetores de código aberto e alto desempenho com uma API abrangente
✅ PostgreSQL – carro-chefe do mundo da engenharia de dados, lida com grandes quantidades de dados com segurança.
️ Agentes de IA para agendamento de compromissos
️ Resuma os PDFs da empresa com segurança, sem vazamentos de dados
️ Slack Bots mais inteligentes para melhorar as comunicações da empresa e as operações de TI
️ Análise de documentos financeiros privados com custo mínimo
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile gpu-nvidia up
Observação
Se você nunca usou sua GPU Nvidia com Docker antes, siga as instruções do Ollama Docker.
Se você estiver usando um Mac com processador M1 ou mais recente, infelizmente não poderá expor sua GPU à instância do Docker. Existem duas opções neste caso:
Se você deseja executar o Ollama no seu Mac, verifique a página inicial do Ollama para obter instruções de instalação e execute o kit inicial da seguinte maneira:
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose up
Depois de seguir a configuração de início rápido abaixo, altere as credenciais do Ollama usando http://host.docker.internal:11434/
como host.
git clone https://github.com/n8n-io/self-hosted-ai-starter-kit.git
cd self-hosted-ai-starter-kit
docker compose --profile cpu up
O núcleo do AI Starter Kit auto-hospedado é um arquivo Docker Compose, pré-configurado com configurações de rede e armazenamento, minimizando a necessidade de instalações adicionais. Depois de concluir as etapas de instalação acima, basta seguir as etapas abaixo para começar.
Para abrir o n8n a qualquer momento, visite http://localhost:5678/ no seu navegador.
Com sua instância n8n, você terá acesso a mais de 400 integrações e um conjunto de nós de IA básicos e avançados, como agente de IA, classificador de texto e nós de extração de informações. Para manter tudo local, lembre-se de usar o nó Ollama para seu modelo de linguagem e Qdrant como seu armazenamento de vetores.
Observação
Este kit inicial foi projetado para ajudá-lo a começar com fluxos de trabalho de IA auto-hospedados. Embora não esteja totalmente otimizado para ambientes de produção, combina componentes robustos que funcionam bem juntos para projetos de prova de conceito. Você pode personalizá-lo para atender às suas necessidades específicas
docker compose --profile gpu-nvidia pull
docker compose create && docker compose --profile gpu-nvidia up
docker compose pull
docker compose create && docker compose up
docker compose --profile cpu pull
docker compose create && docker compose --profile cpu up
n8n está repleto de conteúdo útil para começar rapidamente com seus conceitos e nós de IA. Se você tiver um problema, vá para o suporte.
Para obter mais ideias de fluxo de trabalho de IA, visite a galeria oficial de modelos de IA n8n . Em cada fluxo de trabalho, selecione o botão Usar fluxo de trabalho para importar automaticamente o fluxo de trabalho para sua instância n8n local.
O kit inicial de IA auto-hospedado criará uma pasta compartilhada (por padrão, localizada no mesmo diretório) que é montada no contêiner n8n e permite que n8n acesse arquivos no disco. Esta pasta dentro do contêiner n8n está localizada em /data/shared
– este é o caminho que você precisará usar em nós que interagem com o sistema de arquivos local.
Nós que interagem com o sistema de arquivos local
Este projeto está licenciado sob a Licença Apache 2.0 - consulte o arquivo LICENSE para obter detalhes.
Participe da conversa no Fórum n8n, onde você pode: