projeto - cofundador.openinterface.ai
? @n_raidenai
cofundador
aplicativos web generativos full stack; back-end + banco de dados + aplicativos da web com estado
gen ui enraizada na arquitetura do aplicativo, com designer de maquete guiado por IA e sistemas de design modular
Os seguintes pontos são muito enfatizados:
Este é um LANÇAMENTO ANTECIPADO E INSTÁVEL do projeto.
Até que a v1 seja lançada, espera-se que ela falhe com frequência.
Consome muitos tokens . Se você estiver com um orçamento de tokens, espere até que a v1 seja lançada.
Novamente, esta é uma versão inicial e instável. Um primeiro teste. Uma prévia das ideias do projeto. Longe da conclusão. Desenvolvimento iterativo de código aberto . Trabalho em andamento. Lançamento alfa inicial instável. [etc]
Lançamento alfa antecipado; antes do esperado em 5/6 semanas
Ainda não está mesclado com os principais recursos-alvo do projeto, nomeadamente:
módulos de iteração de projeto para todas as dimensões dos projetos gerados
interface administrativa para fluxos de eventos e iterações de projeto (mais profundas)
integre o plugin genUI completo:
sistemas de design generativos
implantar modelos ajustados e veicular em api.cofounder
ambiente de desenvolvimento local baseado em navegador para todo o escopo do projeto
adicione {react-native, flutter, outras estruturas da web}
validações e revisão de código de enxame e correção automática
otimização de código
[...]
ser paciente :)
Abra seu terminal e execute
npx @openinterface/cofundador
Siga as instruções. O instalador
vai pedir suas chaves
configurar diretórios e iniciar instalações
iniciará o cofounder/api
local e o servidor
abrirá o painel da web onde você pode criar novos projetos (em http://localhost:4200
)?
note : you will be asked for a cofounder.openinterface.ai key it is recommended to use one as it enables the designer/layoutv1 and swarm/external-apis features and can be used without limits during the current early alpha period the full index will be available for local download on v1 release
atualmente usando node v22
para todo o projeto.
# alternativamente, você pode criar um novo projeto sem passar pelo painel# executando :npx @openinterface/cofounder -p "YourAppProjectName" -d "descreva seu aplicativo aqui" -a "(opcional) instruções de design"
Seu aplicativo da web back-end e vite + react será gerado de forma incremental dentro de ./apps/{YourApp}
Abra seu terminal em ./apps/{YourApp}
e execute
npm i && npm execute dev
Ele iniciará o backend e o vite+react, simultaneamente, após instalar suas dependências. Vá para http://localhost:5173/
para abrir o aplicativo web?
De dentro dos aplicativos gerados, você pode usar ⌘+K / Ctrl+K para iterar nos componentes da UI
[mais detalhes depois]
Se você retomar mais tarde e quiser iterar nos aplicativos gerados, o servidor ./cofounder/api
local precisa estar em execução para receber consultas
Você pode (re)iniciar a local cofounder API
executando o seguinte comando em ./cofounder/api
início da execução npm
O painel será aberto em http://localhost:4200
observação: você também pode gerar novos aplicativos a partir do mesmo ambiente, sem o painel, executando, em ./cofounder/api
, um destes comandos
npm run start -- -p "ProjectName" -f "alguma descrição do aplicativo" -a "minimalista e espaçoso, tema leve"npm run start -- -p "ProjectName" -f "./example_description.txt" -a "minimalista e espaçoso, tema leve"
[a arquitetura será mais detalhada e documentada posteriormente]
Cada "nó" na arquitetura cofounder
tem uma configuração definida em ./cofounder/api/system/structure/nodes/{category}/{name}.yaml
para lidar com coisas como simultaneidade, novas tentativas e limites por intervalo de tempo
Por exemplo, se você deseja que várias gerações de LLM sejam executadas em paralelo (quando possível - sequências e paralelos são definidos no DAGS em ./cofounder/api/system/structure/sequences/{definition}.yaml
), vá para
#./cofounder/api/system/structure/nodes/op/llm.yamlnodes: op:LLM::GEN: desc: "..." in: [modelo, mensagens, preparser, parser, query, stream] out: [gerado, uso] fila: simultaneidade: 1 # <------------------------------- aqui op:LLM::VECTORIZE : desc: "{textos} -> {vetores}" in: [textos] out: [vetores, uso] mapreduce: true op:LLM::VECTORIZE:CHUNK: desc: "{textos} -> {vetores}" in : [textos] saída: [vetores, uso] fila: simultaneidade: 50
e altere a concurrency
do parâmetro op:LLM::GEN
para um valor mais alto
A simultaneidade LLM padrão é definida como 2
para que você possa ver o que está acontecendo nos streams do seu console passo a passo - mas você pode incrementá-la dependendo dos limites das chaves da API
[WIP]
[mais detalhes depois]
arqui/v1 é o seguinte:
Sistemas de design de demonstração construídos usando kits de renderização / UI Figma de:
blocks.pm por Hexa Plugin (veja cofounder/api/system/presets
)
material do Google
núcleo de figma
shadcn
UI baseada em nó de painel alimentada por fluxo de reação