proyecto - cofundador.openinterface.ai
? @n_raidenai
cofundador
aplicaciones web generativas de pila completa; backend + db + aplicaciones web con estado
interfaz de usuario genérica basada en la arquitectura de aplicaciones, con diseñador de maquetas guiado por IA y sistemas de diseño modular
Se hace mucho hincapié en los siguientes puntos:
Esta es una PUBLICACIÓN PREVIA TEMPRANA E INESTABLE del proyecto.
Hasta que se lance la v1, se espera que se rompa con frecuencia.
Consume muchas fichas . Si tiene un presupuesto de tokens, espere hasta que se lance la versión 1.
Nuevamente, se trata de una versión temprana e inestable. Una primera prueba. Un anticipo de las ideas del proyecto. Lejos de completarse. Desarrollo iterativo de código abierto . Trabajo en progreso. Lanzamiento alfa temprano inestable. [etc]
Lanzamiento alfa temprano; antes de lo esperado por 5/6 semanas
Aún no se ha fusionado con las características clave del proyecto, en particular:
Módulos de iteración de proyectos para todas las dimensiones de los proyectos generados.
Interfaz de administración para flujos de eventos e iteraciones (más profundas) de proyectos.
integre el complemento genUI completo:
sistemas de diseño generativo
Implemente modelos optimizados y sirva desde api.cofounder
entorno de desarrollo local basado en navegador para todo el alcance del proyecto
agregar {react-native, flutter, otros marcos web}
validaciones y revisión y corrección automática de códigos de enjambre
optimización de código
[...]
ser paciente :)
Abre tu terminal y ejecuta
npx @openinterface/cofundador
Sigue las instrucciones. el instalador
te pedirá tus llaves
configurar directorios e iniciar instalaciones
iniciará el servidor y el cofounder/api
¿Abrirá el panel web donde puede crear nuevos proyectos (en http://localhost:4200
)?
note : you will be asked for a cofounder.openinterface.ai key it is recommended to use one as it enables the designer/layoutv1 and swarm/external-apis features and can be used without limits during the current early alpha period the full index will be available for local download on v1 release
Actualmente estoy usando node v22
para todo el proyecto.
# alternativamente, puedes crear un nuevo proyecto sin pasar por el panel# ejecutando :npx @openinterface/cofounder -p "YourAppProjectName" -d "describe tu aplicación aquí" -a "(opcional) instrucciones de diseño"
Su aplicación web backend y vite+react se generará incrementalmente dentro de ./apps/{YourApp}
Abra su terminal en ./apps/{YourApp}
y ejecute
npm i && npm ejecutar dev
Iniciará tanto el backend como vite+react, simultáneamente, después de instalar sus dependencias. Vaya a http://localhost:5173/
para abrir la aplicación web.
Desde dentro de las aplicaciones generadas, puede usar ⌘+K/Ctrl+K para iterar en los componentes de la interfaz de usuario.
[más detalles más adelante]
Si continúa más tarde y desea repetir las aplicaciones generadas, el servidor ./cofounder/api
local debe estar ejecutándose para recibir consultas.
Puede (re)iniciar la local cofounder API
ejecutando el siguiente comando desde ./cofounder/api
inicio de ejecución de npm
El panel se abrirá en http://localhost:4200
nota: También puede generar nuevas aplicaciones desde el mismo entorno, sin el panel, ejecutando, desde ./cofounder/api
, uno de estos comandos
npm run start -- -p "ProjectName" -f "alguna descripción de la aplicación" -a "tema ligero, minimalista y espacioso"npm run start -- -p "ProjectName" -f "./example_description.txt" -a "minimalista y tema espacioso y luminoso"
[la arquitectura se detallará y documentará más adelante]
Cada "nodo" en la arquitectura cofounder
tiene una configuración definida en ./cofounder/api/system/structure/nodes/{category}/{name}.yaml
para manejar cosas como simultaneidad, reintentos y límites por intervalo de tiempo.
Por ejemplo, si desea que se ejecuten varias generaciones de LLM en paralelo (cuando sea posible, las secuencias y los paralelos se definen en DAGS en ./cofounder/api/system/structure/sequences/{definition}.yaml
), vaya a
#./cofounder/api/system/structure/nodes/op/llm.yamlnodes: op:LLM::GEN: desc: "..." en: [modelo, mensajes, preparador, analizador, consulta, flujo] salida: [generado, uso] cola: concurrencia: 1 # <------------------------------- aquí op:LLM::VECTORIZE : desc: "{textos} -> {vectores}" en: [textos] salida: [vectores, uso] mapreduce: true op:LLM::VECTORIZE:CHUNK: desc: "{textos} -> {vectores}" en : [textos] salida: [vectores, uso] cola: simultaneidad: 50
y cambie la concurrency
del parámetro op:LLM::GEN
a un valor más alto
La simultaneidad LLM predeterminada está configurada en 2
para que pueda ver lo que sucede en las transmisiones de su consola paso a paso, pero puede incrementarla según los límites de sus claves de API.
[WIP]
[más detalles más adelante]
archi/v1 es el siguiente:
Sistemas de diseño de demostración creados con kits de interfaz de usuario y renderizados Figma de:
blocks.pm por Hexa Plugin (ver cofounder/api/system/presets
)
material de google
núcleo de figma
shadcn
Interfaz de usuario basada en nodos del panel impulsada por flujo de reacción