Tutor-GPT 是由 Plastic Labs 開發的法學碩士學習伴侶。它動態地推理您的學習需求並更新自己的提示以最好地為您服務。
我們進行了心理理論實驗,它現在不僅僅是一個識字導師,它還是一個廣泛的學習伴侶。在這裡閱讀更多關於它如何運作的資訊。
Tutor-GPT 由 Honcho 提供支持,可建立強大的用戶表示並為每個用戶創建個人化體驗。
tutor-gpt
的託管版本稱為 Bloom,這是對本傑明布魯姆 (Benjamin Bloom) 的二西格瑪問題 (Two Sigma Problem) 的致敬。
或者,您可以按照以下說明執行自己的機器人實例。
coach-gpt 專案分為多個不同的模組,這些模組為不同的客戶端劃分了後端邏輯。
agent/
- 這包含核心邏輯和提示架構bot/
- 這包含不和諧機器人的實現api/
- 這包含一個公開agent/
邏輯的 FastAPI API 接口www/
- 這包含一個可以連接到 API 介面的NextJS
Web 前端supabase/
- 包含設定本地 SUPABASE 所需的 SQL 腳本除了 NextJS 應用程式之外,該專案的大部分都是使用 python 開發的。對於 python, uv
用於依賴管理,對於 Web 介面,我們使用pnpm
。
bot/
和api/
模組都使用agent/
作為依賴項,並使用uv
將其載入為本地包
注意 有關 Web 介面的更多資訊可在 www/README 中找到,該 README 主要包含有關 coach-gpt 後端和 coach 核心邏輯的信息
agent
、 bot
和api
模組皆使用uv
工作區進行管理。
本節介紹如何設定運行 Tutor-GPT 的 python 環境。這將允許您運行不和諧機器人、運行 FastAPI 應用程式或開發agent
程式碼。
以下命令將安裝執行 coach-gpt 專案所需的所有依賴項。我們建議使用 uv 為專案設定虛擬環境。
git clone https://github.com/plastic-labs/tutor-gpt.git && cd tutor-gpt
uv sync # set up the workspace
source .venv/bin/activate # activate the virtual environment
然後,您需要在適當的目錄中執行uv sync
,具體取決於您想要執行的專案的哪個部分。例如,要執行 FastAPI 應用程序,您需要導航到目錄並重新運行同步
cd api/
uv sync
您應該看到一條訊息,指示依賴項已解決和/或安裝(如果之前尚未安裝)。
或(建議的方式)該專案可以使用 docker 建置和運行。安裝 docker 並確保其正在運行,然後再繼續。
Web 前端與程式碼庫的其餘部分分開建置和運行。以下是建立 coach-gpt 專案核心的命令,其中包括運行不和諧機器人或 FastAPI 端點所需的依賴項。
git clone https://github.com/plastic-labs/tutor-gpt.git
cd tutor-gpt
docker build -t tutor-gpt-core .
同樣,要建立 Web 介面,請執行以下命令
Tutor-gpt 的每個介面都需要不同的環境變數才能正常運作。 bot/
和api/
模組都包含一個.env.template
文件,您可以將其用作起點。複製.env.template
並將其重命名為.env
以下是環境變數更詳細的解釋
OPENAI_API_KEY
— 使用 OpenAI 相容 API 的 Openrouter 的 API 金鑰MODEL
— 要使用的 openrouter 模型NextJS 與 fastAPI
URL
— 前端 Next.js 應用程式的 URL 端點HONCHO_URL
— 您正在使用的 Honcho 實例的基本 URLHONCHO_APP_NAME
— 用於 Tutor-GPT 的 honcho 應用程式的名稱選用附加功能
SENTRY_DSN_API
— 用於可選錯誤報告的 Sentry DSNBOT_TOKEN
— 這是不和諧的機器人代幣。您可以在 pycord 文件中找到有關如何建立機器人並產生令牌的說明。THOUGHT_CHANNEL_ID
— 這是機器人輸出想法的不一致通道。在您的伺服器中建立頻道,並透過右鍵單擊該頻道並複製連結來複製 ID。頻道 ID 是連結中的最後一串數字。您也可以選擇使用 docker 容器在本機上運行應用程式。以下是使用不在 docker 容器內的.env
檔案在本地運行不和諧機器人的命令。請小心不要將.env
添加到 docker 容器中,因為這是不安全的並且可能會洩露您的秘密。
docker run --env-file .env tutor-gpt-core python bot/app.py
要執行 webui,您需要分別執行後端FastAPI
和前端NextJS
容器。在兩個單獨的終端實例中執行以下命令以使兩個應用程式運行。目前的行為將利用本地儲存庫中的.env
檔案並運行機器人。
docker run -p 8000:8000 --env-file .env tutor-gpt-core python -m uvicorn api.main:app --host 0.0.0.0 --port 8000 # FastAPI Backend
docker run tutor-gpt-web
注意:核心的 docker 檔案中的預設運行命令運行 FastAPI 後端,因此您只需執行 docker run --env-file .env coach-gpt-core
該專案是完全開源的,歡迎任何和所有開源貢獻。貢獻的工作流程是建立儲存庫的分支。您可以在問題標籤中提出問題或啟動新執行緒來表明您正在處理的功能或錯誤修復。
完成貢獻後,請向staging
分支提交 PR,專案經理將對其進行審核。請隨時加入我們的不和諧討論您的更改或獲取幫助。
一旦您的更改被接受並合併到登台中,它們將在進入上游進入main
之前進行一段時間的即時測試
Tutor-GPT 根據 GPL-3.0 許可證獲得許可。在許可證文件中了解更多信息