gpinterface
1.0.0
使用gpinterface
,您可以輕鬆地為提示創建API。
可以在gpinterface.com上獲得實時演示。
以下是gpinterface
可以做什麼的一些具體示例:
您可以選擇LLM模型並添加上下文。部署後,您將獲得終點:
它是一種功能強大的工具,旨在簡化多個大型語言模型(LLM)的生成提示的測試和部署。使用易於使用的Web界面, gpinterface
可以快速配置和實驗。
gpinterface
當前支持各種領先的大型語言模型,包括:
這種多樣化的支持使您可以為您的特定需求和要求選擇最佳模型。
沒有看到您最喜歡的模型?隨時打開PR或與我聯繫!
該應用程序需要一個PostgreSQL數據庫。使用Docker啟動數據庫:
cd backend
docker-compose up -d
後端利用Prisma來管理數據庫架構和遷移。在數據庫初始化中執行以下命令:
npm run prisma:migrate
要用每個支持的大語言模型的初始數據播種數據庫,請運行以下命令:
npx ts-node prisma/seed
後端
後端需要設置以下環境變量:
CLIENT_URL= " http://localhost:3003 "
DATABASE_URL= " postgresql://postgres:[email protected]:5432/postgres " # can be replaced with your DB endpoint
AI21_API_KEY= " YOUR_AI21_API_KEY "
ANTHROPIC_API_KEY= " YOUR_ANTHROPIC_API_KEY "
COHERE_API_KEY= " YOUR_COHERE_API_KEY "
GOOGLE_API_KEY= " YOUR_GOOGLE_API_KEY "
MISTRAL_API_KEY= " YOUR_MISTRAL_API_KEY "
OPENAI_API_KEY= " YOUR_OPENAI_API_KEY "
AWS_ACCESS_KEY_ID= " AWS_ACCESS_KEY " # you need Llama model access in AWS Bedrock
AWS_SECRET_ACCESS_KEY= " AWS_SECRET_KEY " # you need Llama model access in AWS Bedrock
JWT_SECRET= " SECURE_RANDOM_STRING "
COOKIE_SECRET= " SECURE_RANDOM_STRING "
NODE_ENV= " development " # for development logging
在啟動應用程序之前,請確保將這些變量設置在後端目錄中的.env
文件中。
前端
前端應用需要以下環境變量:
NEXT_PUBLIC_API_ENDPOINT= " http://localhost:3000 "
NEXT_PUBLIC_CHAT_ENDPOINT= " http://localhost:3001 "
NEXT_PUBLIC_HOSTNAME= " http://localhost:3003 "
NEXT_PUBLIC_GOOGLE_OAUTH_CLIENT_KEY= " "
這些應配置為匹配可用後端服務的端點,以確保前端可以正確與後端通信。
為了開發目的,分別運行應用程序組件:
運行後端
cd backend && npm run dev
運行前端
cd frontend && npm run dev
要構建用於生產部署的所有組件,請依次遵循以下步驟
cd shared
npm run build
cd ../backend
npm run build
cd ../frontend
npm run build
啟動服務器
運行後端
cd backend && npm run start
運行聊天服務器(API服務器)
cd backend && npm run start:chat
運行前端
cd frontend && npm run start