项目 - coFounder.openinterface.ai
? @n_raidenai
联合创始人
全栈生成网络应用程序;后端 + 数据库 + 有状态的 Web 应用程序
gen ui 植根于应用程序架构,具有人工智能引导的模型设计器和模块化设计系统
非常强调以下几点:
这是该项目的早期、不稳定的预览版本。
在 v1 发布之前,预计会经常出现故障。
它消耗大量的代币。如果您有代币预算,请等到 v1 发布。
再次强调,这是一个早期的、不稳定的版本。第一次试运行。该项目想法的早期预览。距离完成还很遥远。开源迭代开发。工作正在进行中。早期 alpha 版本不稳定。 [ETC]
早期 alpha 版本;比预期早 5/6 周
仍未与该项目的关键目标功能合并,特别是:
适用于生成项目所有维度的项目迭代模块
事件流和(更深)项目迭代的管理界面
集成完整的 genUI 插件:
生成设计系统
部署微调模型并从 api.coFounder 提供服务
整个项目范围的本地、基于浏览器的开发环境
添加 {react-native、flutter、其他 Web 框架}
验证和群体代码审查和自动修复
代码优化
[...]
要有耐心 :)
打开终端并运行
npx @openinterface/联合创始人
请按照说明进行操作。安装程序
会问你要钥匙
设置目录并开始安装
将启动本地联合cofounder/api
构建器和服务器
将打开 Web 仪表板,您可以在其中创建新项目(位于http://localhost:4200
)?
note : you will be asked for a cofounder.openinterface.ai key it is recommended to use one as it enables the designer/layoutv1 and swarm/external-apis features and can be used without limits during the current early alpha period the full index will be available for local download on v1 release
目前整个项目使用node v22
。
# 或者,您可以创建一个新项目,而无需通过仪表板# 通过运行 :npx @openinterface/coFounder -p "YourAppProjectName" -d "describe your app here" -a "(可选) 设计说明"
您的后端和 vite+react Web 应用程序将在./apps/{YourApp}
内增量生成 在./apps/{YourApp}
中打开您的终端并运行
npm i && npm run dev
安装依赖项后,它将同时启动后端和 vite+react 转到http://localhost:5173/
打开 Web 应用程序?
在生成的应用程序中,您可以使用 ⌘+K / Ctrl+K 迭代 UI 组件
[稍后详细介绍]
如果您稍后恢复并想要迭代生成的应用程序,则需要运行本地./cofounder/api
服务器来接收查询
您可以(重新)启动local cofounder API
从./cofounder/api
运行以下命令
npm 运行开始
仪表板将在http://localhost:4200
中打开
注意:您还可以通过从./cofounder/api
运行以下命令之一,从同一环境生成新应用程序,无需仪表板
npm run start -- -p "项目名称" -f "一些应用程序描述" -a "简约、宽敞、浅色主题" npm run start -- -p "项目名称" -f "./example_description.txt" -a "简约宽敞、明亮的主题”
[稍后将进一步详细说明该架构并进行记录]
cofounder
架构中的每个“节点”在./cofounder/api/system/structure/nodes/{category}/{name}.yaml
下都有定义的配置,用于处理并发、重试和每个时间间隔的限制等事务
例如,如果您希望多个 LLM 生成并行运行(如果可能 - 序列和并行在 DAGS 中的./cofounder/api/system/structure/sequences/{definition}.yaml
下定义),请转到
#./coFounder/api/system/struct/nodes/op/llm.yamlnodes: op:LLM::GEN: desc: "..." in: [模型、消息、预解析器、解析器、查询、流] 输出: [生成,用法] 队列:并发:1 # <-------------------------------------------- 这里 op:LLM::VECTORIZE : desc: "{texts} -> {vectors}" in: [texts] out: [向量,用法] mapreduce: true op:LLM::VECTORIZE:CHUNK: desc: "{texts} -> {vectors}" in :[文本]输出:[向量,用法]队列:并发:50
并将op:LLM::GEN
参数concurrency
更改为更高的值
默认的 LLM 并发设置为2
因此您可以逐步查看控制台流中发生的情况 - 但您可以根据 api 密钥限制增加它
[开发中]
[稍后详细介绍]
archi/v1 如下:
使用 Figma 渲染/UI 套件构建的演示设计系统:
block.pm 由 Hexa 插件提供(参见cofounder/api/system/presets
)
谷歌材料
Figma核心
沙德网
由反应流提供支持的基于仪表板节点的用户界面