?灯塔报告 | ?灯塔报告 |
LobeChat 提供使用 Vercel、阿里云和 Docker Image 的自托管版本。这使您可以在几分钟内部署自己的聊天机器人,而无需任何先验知识。
提示
查看有关构建您自己的 LobeChat 的更多信息。
A
使用 Vercel、Zeabur、Sealos 或阿里云进行部署“如果您想自己在 Vercel、Zeabur 或阿里云上部署此服务,可以按照以下步骤操作:
准备您的 OpenAI API 密钥。
点击下面的按钮开始部署:直接用你的GitHub账号登录,记得在环境变量部分填写OPENAI_API_KEY
(必填)和ACCESS_CODE
(推荐)。
部署完成后,就可以开始使用了。
绑定自定义域名(可选):Vercel分配的域名的DNS在部分地区受到污染;绑定自定义域名可以直接连接。
使用 Vercel 进行部署 | 使用 Zeabur 进行部署 | 与 Sealos 一起部署 | 使用 RepoCloud 进行部署 | 使用阿里云部署 |
---|---|---|---|---|
fork 后,仅保留上游同步操作,并禁用 GitHub 存储库中的其他操作。
如果您按照 README 中的一键部署步骤部署了自己的项目,则可能会不断遇到“有更新可用”的提示。这是因为 Vercel 默认创建一个新项目而不是分叉这个项目,导致无法准确检测更新。
提示
我们建议您使用以下步骤重新部署:自动与最新版本同步
B
使用 Docker 进行部署我们提供了一个 Docker 镜像,用于在您自己的私人设备上部署 LobeChat 服务。使用以下命令启动 LobeChat 服务:
$ docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
提示
如果需要通过代理使用OpenAI服务,可以使用OPENAI_PROXY_URL
环境变量配置代理地址:
$ docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e OPENAI_PROXY_URL=https://api-proxy.com/v1 -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
笔记
有关使用 Docker 进行部署的详细说明,请参阅 Docker 部署指南
该项目提供了一些使用环境变量设置的附加配置项:
环境变量 | 必需的 | 描述 | 例子 |
---|---|---|---|
OPENAI_API_KEY | 是的 | 这是您在 OpenAI 账户页面申请的 API 密钥 | sk-xxxxxx...xxxxxx |
OPENAI_PROXY_URL | 不 | 如果手动配置OpenAI接口代理,可以使用该配置项覆盖默认的OpenAI API请求基URL | https://api.chatanywhere.cn 或https://aihubmix.com/v1 默认值为 https://api.openai.com/v1 |
ACCESS_CODE | 不 | 添加访问该服务的密码;您可以设置一个长密码以避免泄露。如果该值包含逗号,则它是密码数组。 | awCTe)re_r74 或rtrt_ewee3@09! 或code1,code2,code3 |
OPENAI_MODEL_LIST | 不 | 用于控制模型列表。使用+ 添加模型,使用- 隐藏模型,使用model_name=display_name 自定义模型的显示名称,以逗号分隔。 | qwen-7b-chat,+glm-6b,-gpt-3.5-turbo |
笔记
环境变量的完整列表可以在环境变量中找到
国家公共管理 | 存储库 | 描述 | 版本 |
---|---|---|---|
@lobehub/ui | lobehub/lobe-ui | 致力于构建 AIGC Web 应用程序的开源 UI 组件库。 | |
@lobehub/图标 | lobehub/lobe-icons | 流行的 AI / LLM 模型品牌 SVG 徽标和图标集合。 | |
@lobehub/tts | 洛贝枢纽/洛贝-tts | 高质量且可靠的 TTS/STT React Hooks 库 | |
@lobehub/lint | 洛贝枢纽/洛贝林特 | LobeHub 的 ESlint、Stylelint、Commitlint、Prettier、Remark 和语义发布的配置。 |
插件提供了一种扩展 LobeChat 函数调用功能的方法。它们可用于引入新的函数调用,甚至是呈现消息结果的新方法。如果您对插件开发感兴趣,请参阅 Wiki 中的插件开发指南。
lobe-chat-plugins:这是 LobeChat 的插件索引。它从此存储库访问index.json,以向用户显示 LobeChat 的可用插件列表。
chat-plugin-template:这是 LobeChat 插件开发的插件模板。
@lobehub/chat-plugin-sdk:LobeChat 插件 SDK 可帮助您为 Lobe Chat 创建出色的聊天插件。
@lobehub/chat-plugins-gateway:LobeChat 插件网关是一项后端服务,为 LobeChat 插件提供网关。我们使用 Vercel 部署此服务。主要 API POST /api/v1/runner 部署为边缘函数。
笔记
插件系统目前正在进行重大开发。您可以在以下问题中了解更多信息:
插件阶段一:实现插件与主体分离,将插件拆分到独立的仓库进行维护,并实现插件的动态加载。
插件阶段2 :插件使用的安全性和稳定性,更准确地呈现异常状态,插件架构的可维护性,开发者友好性。
插件阶段3 :更高层次、更全面的定制能力,支持插件认证,以及示例。
您可以使用GitHub Codespaces进行在线开发:
或者克隆它以进行本地开发:
$ git 克隆 https://github.com/lobehub/lobe-chat.git $ cd 叶聊天 $ pnpm 安装 $ pnpm 开发
如果您想了解更多详细信息,请随时查看我们的开发指南。
我们非常欢迎所有类型的贡献;如果您有兴趣贡献代码,请随时查看我们的 GitHub 问题和项目,向我们展示您的能力。
提示
我们正在创建一个技术驱动的论坛,促进知识互动和思想交流,最终实现相互启发和协作创新。
帮助我们让 LobeChat 变得更好。欢迎直接向我们提供产品设计反馈、用户体验讨论。
主要维护者: @arvinxx @canisminor1990
每一点都很重要,您的一次性捐款在我们的支持中闪闪发光!你是一颗流星,对我们的旅程产生迅速而明亮的影响。感谢您对我们的信任——您的慷慨引导我们实现我们的使命,一次辉煌的闪光。
⛵️ Lobe Midjourney WebUI: Midjourney WebUI,利用人工智能根据文本提示快速生成各种丰富多样的图像,激发创造力并增强对话。
? Lobe i18n : Lobe i18n 是一个用于 i18n(国际化)翻译过程的自动化工具,由 ChatGPT 提供支持。它支持大文件自动拆分、增量更新以及 OpenAI 模型、API 代理和温度的自定义选项等功能。
? Lobe Commit: Lobe Commit 是一个 CLI 工具,利用 Langchain/ChatGPT 生成基于 Gitmoji 的提交消息。
版权所有 © 2024 LobeHub。
该项目已获得 Apache 2.0 许可。