projet - cofondateur.openinterface.ai
? @n_raidenai
cofondateur
applications Web génératives full stack ; backend + base de données + applications Web avec état
gen ui ancré dans l'architecture d'application, avec un concepteur de maquette guidé par l'IA et des systèmes de conception modulaires
Les points suivants sont très soulignés :
Il s'agit d'une version préliminaire et instable du projet.
Jusqu'à ce que la version 1 soit publiée, on s'attend à ce qu'elle tombe souvent en panne.
Cela consomme beaucoup de jetons . Si vous avez un budget de jetons, attendez la sortie de la v1.
Encore une fois, il s’agit d’une version précoce et instable. Un premier essai. Un premier aperçu des idées du projet. Loin d’être achevé. Développement itératif open source . Travaux en cours. Version alpha précoce instable. [etc]
Version alpha anticipée ; plus tôt que prévu de 5/6 semaines
Toujours pas fusionné avec les fonctionnalités clés cibles du projet, notamment :
modules d'itération de projet pour toutes les dimensions des projets générés
interface d'administration pour les flux d'événements et les itérations (plus approfondies) du projet
intégrer le plugin genUI complet :
systèmes de conception générative
déployer des modèles affinés et servir à partir d'api.cofounder
environnement de développement local basé sur un navigateur pour toute la portée du projet
ajouter {react-native, flutter, autres frameworks Web}
validations, révision du code d'essaim et correction automatique
optimisation du code
[...]
sois patient :)
Ouvrez votre terminal et exécutez
npx @openinterface/cofondateur
Suivez les instructions. L'installateur
je vous demanderai vos clés
Répertoires de configuration et démarrage des installations
démarrera le cofounder/api
et le serveur local
ouvrira le tableau de bord Web où vous pourrez créer de nouveaux projets (sur http://localhost:4200
) ?
note : you will be asked for a cofounder.openinterface.ai key it is recommended to use one as it enables the designer/layoutv1 and swarm/external-apis features and can be used without limits during the current early alpha period the full index will be available for local download on v1 release
j'utilise actuellement node v22
pour l'ensemble du projet.
# alternativement, vous pouvez créer un nouveau projet sans passer par le tableau de bord# en exécutant :npx @openinterface/cofounder -p "YourAppProjectName" -d "décrivez votre application ici" -a "instructions de conception (facultatif)"
Votre application Web backend & vite+react sera générée progressivement à l'intérieur de ./apps/{YourApp}
Ouvrez votre terminal dans ./apps/{YourApp}
et exécutez
npm i && npm exécuter le développement
Il démarrera simultanément le backend et vite+react, après avoir installé leurs dépendances. Allez sur http://localhost:5173/
pour ouvrir l'application Web ?
À partir des applications générées, vous pouvez utiliser ⌘+K / Ctrl+K pour parcourir les composants de l'interface utilisateur.
[plus de détails plus tard]
Si vous reprenez plus tard et souhaitez itérer sur vos applications générées, le serveur ./cofounder/api
local doit être en cours d'exécution pour recevoir les requêtes.
Vous pouvez (re)démarrer l' local cofounder API
en exécutant la commande suivante depuis ./cofounder/api
npm exécuter démarrer
Le tableau de bord s'ouvrira dans http://localhost:4200
note : Vous pouvez également générer de nouvelles applications à partir du même environnement, sans le tableau de bord, en exécutant, depuis ./cofounder/api
, l'une de ces commandes
npm run start -- -p "ProjectName" -f "une description de l'application" -a "minimaliste et spacieux, thème léger" npm run start -- -p "ProjectName" -f "./example_description.txt" -a "minimaliste et thème spacieux et lumineux"
[l'architecture sera plus détaillée et documentée plus tard]
Chaque "nœud" de l'architecture cofounder
a une configuration définie sous ./cofounder/api/system/structure/nodes/{category}/{name}.yaml
pour gérer des éléments tels que la concurrence, les tentatives et les limites par intervalle de temps.
Par exemple, si vous souhaitez que plusieurs générations LLM s'exécutent en parallèle (si possible - les séquences et les parallèles sont définis dans DAGS sous ./cofounder/api/system/structure/sequences/{definition}.yaml
), accédez à
#./cofounder/api/system/structure/nodes/op/llm.yamlnodes : op:LLM::GEN: desc : "..." dans : [modèle, messages, préparateur, analyseur, requête, flux] sortie : [générée, utilisation] file d'attente : concurrence : 1 # <------------------------------- ici op:LLM::VECTORIZE : desc: "{textes} -> {vecteurs}" dans : [textes] sortie : [vecteurs, utilisation] mapreduce : true op:LLM::VECTORIZE:CHUNK : desc: "{textes} -> {vecteurs}" dans : [textes] sortie : [vecteurs, utilisation] file d'attente : concurrence : 50
et modifiez la concurrency
du paramètre op:LLM::GEN
sur une valeur plus élevée
La simultanéité LLM par défaut est définie sur 2
afin que vous puissiez voir ce qui se passe dans les flux de votre console étape par étape - mais vous pouvez l'incrémenter en fonction des limites de vos clés API.
[En cours]
[plus de détails plus tard]
archi/v1 est le suivant :
Systèmes de conception de démonstration construits à l'aide de rendus Figma/kits d'interface utilisateur à partir de :
Blocks.pm par Hexa Plugin (voir cofounder/api/system/presets
)
matériel Google
noyau figma
shadcn
Interface utilisateur basée sur un nœud de tableau de bord alimentée par React Flow