Tutor-GPT 是由 Plastic Labs 开发的法学硕士学习伴侣。它动态地推理您的学习需求并更新自己的提示以最好地为您服务。
我们进行了心理理论实验,它现在不仅仅是一个识字导师,它还是一个广泛的学习伴侣。在这里阅读更多关于它如何工作的信息。
Tutor-GPT 由 Honcho 提供支持,可构建强大的用户表示并为每个用户创建个性化体验。
tutor-gpt
的托管版本被称为 Bloom,这是对本杰明·布鲁姆 (Benjamin Bloom) 的二西格码问题 (Two Sigma Problem) 的致敬。
或者,您可以按照以下说明运行您自己的机器人实例。
coach-gpt 项目分为多个不同的模块,这些模块为不同的客户端划分了后端逻辑。
agent/
- 这包含核心逻辑和提示架构bot/
- 这包含不和谐机器人的实现api/
- 这包含一个公开agent/
逻辑的 FastAPI API 接口www/
- 这包含一个可以连接到 API 接口的NextJS
Web 前端supabase/
- 包含设置本地 SUPABASE 所需的 SQL 脚本除了 NextJS 应用程序之外,该项目的大部分都是使用 python 开发的。对于 python, uv
用于依赖管理,对于 Web 界面,我们使用pnpm
。
bot/
和api/
模块都使用agent/
作为依赖项,并使用uv
将其加载为本地包
注意 有关 Web 界面的更多信息可在 www/README 中找到,该 README 主要包含有关 coach-gpt 后端和 coach 核心逻辑的信息
agent
、 bot
和api
模块均使用uv
工作区进行管理。
本节介绍如何设置运行 Tutor-GPT 的 python 环境。这将允许您运行不和谐机器人、运行 FastAPI 应用程序或开发agent
代码。
以下命令将安装运行 coach-gpt 项目所需的所有依赖项。我们建议使用 uv 为项目设置虚拟环境。
git clone https://github.com/plastic-labs/tutor-gpt.git && cd tutor-gpt
uv sync # set up the workspace
source .venv/bin/activate # activate the virtual environment
然后,您需要在适当的目录中运行uv sync
,具体取决于您想要运行的项目的哪个部分。例如,要运行 FastAPI 应用程序,您需要导航到目录并重新运行同步
cd api/
uv sync
您应该看到一条消息,指示依赖项已解决和/或安装(如果之前尚未安装)。
或者(推荐的方式)该项目可以使用 docker 构建和运行。安装 docker 并确保其正在运行,然后再继续。
Web 前端与代码库的其余部分分开构建和运行。以下是构建 coach-gpt 项目核心的命令,其中包括运行不和谐机器人或 FastAPI 端点所需的依赖项。
git clone https://github.com/plastic-labs/tutor-gpt.git
cd tutor-gpt
docker build -t tutor-gpt-core .
同样,要构建 Web 界面,请运行以下命令
Tutor-gpt 的每个接口都需要不同的环境变量才能正常运行。 bot/
和api/
模块都包含一个.env.template
文件,您可以将其用作起点。复制.env.template
并将其重命名为.env
下面是环境变量更详细的解释
OPENAI_API_KEY
— 使用 OpenAI 兼容 API 的 Openrouter 的 API 密钥MODEL
— 要使用的 openrouter 模型NextJS 和 fastAPI
URL
— 前端 Next.js 应用程序的 URL 端点HONCHO_URL
— 您正在使用的 Honcho 实例的基本 URLHONCHO_APP_NAME
— 用于 Tutor-GPT 的 honcho 应用程序的名称可选附加功能
SENTRY_DSN_API
— 用于可选错误报告的 Sentry DSNBOT_TOKEN
— 这是不和谐的机器人令牌。您可以在 pycord 文档中找到有关如何创建机器人并生成令牌的说明。THOUGHT_CHANNEL_ID
— 这是机器人输出想法的不一致通道。在您的服务器中创建一个频道,并通过右键单击该频道并复制链接来复制 ID。频道 ID 是链接中的最后一串数字。您还可以选择使用 docker 容器在本地运行应用程序。以下是使用不在 docker 容器内的.env
文件在本地运行不和谐机器人的命令。请小心不要将.env
添加到 docker 容器中,因为这是不安全的并且可能会泄露您的秘密。
docker run --env-file .env tutor-gpt-core python bot/app.py
要运行 webui,您需要分别运行后端FastAPI
和前端NextJS
容器。在两个单独的终端实例中运行以下命令以使两个应用程序运行。当前的行为将利用本地存储库中的.env
文件并运行机器人。
docker run -p 8000:8000 --env-file .env tutor-gpt-core python -m uvicorn api.main:app --host 0.0.0.0 --port 8000 # FastAPI Backend
docker run tutor-gpt-web
注意:核心的 docker 文件中的默认运行命令运行 FastAPI 后端,因此您只需运行 docker run --env-file .env coach-gpt-core
该项目是完全开源的,欢迎任何和所有开源贡献。贡献的工作流程是创建存储库的分支。您可以在问题选项卡中提出问题或启动新线程来表明您正在处理的功能或错误修复。
完成贡献后,请向staging
分支提交 PR,项目经理将对其进行审核。请随时加入我们的不和谐讨论您的更改或获取帮助。
一旦您的更改被接受并合并到登台中,它们将在进入上游进入main
之前进行一段时间的实时测试
Tutor-GPT 根据 GPL-3.0 许可证获得许可。在许可证文件中了解更多信息