Superplatform มุ่งหวังที่จะคืนอำนาจให้กับนักพัฒนาในยุคที่ AI เป็นเจ้าของแพลตฟอร์ม AI ของคุณเอง!
วิธีที่ง่ายที่สุดในการรัน Superplatform คือการใช้ Docker ติดตั้ง Docker หากคุณยังไม่มี ก้าวเข้าสู่รูท repo และ:
docker compose up
เพื่อรันแพลตฟอร์มในเบื้องหน้า มันหยุดทำงานถ้าคุณ Ctrl + C มัน หากคุณต้องการรันในพื้นหลัง:
docker compose up -d
ขณะนี้ Superplatform กำลังทำงานอยู่ คุณมีตัวเลือกไม่กี่ตัวในการโต้ตอบกับมัน
คุณสามารถไปที่ http://127.0.0.1:3901
และเข้าสู่ระบบด้วยชื่อผู้ใช้ singulatron
และ changeme
รหัสผ่าน และเริ่มใช้งานได้เหมือนกับที่คุณใช้ ChatGPT
คลิกที่ปุ่ม "AI" ขนาดใหญ่แล้วดาวน์โหลดแบบจำลองก่อน ไม่ต้องกังวล โมเดลนี้จะยังคงอยู่ตลอดการรีสตาร์ท (ดูโวลุ่มใน docker-compose.yaml)
เพื่อความกระชับ ตัวอย่างด้านล่างถือว่าคุณไปที่ UI และดาวน์โหลดโมเดลแล้ว (ซึ่งสามารถทำได้กับลูกค้า แต่จะนานกว่านั้น)
มาทำการซิงค์พร้อมท์ใน JS ในการดำเนินโครงการของคุณ
npm i -s @superplatform/client
ตรวจสอบให้แน่ใจว่า package.json
ของคุณมี "type": "module"
ใส่ข้อมูลโค้ดต่อไปนี้ลงใน index.js
import { UserSvcApi , PromptSvcApi , Configuration } from "@superplatform/client" ;
async function testDrive ( ) {
let userService = new UserSvcApi ( ) ;
let loginResponse = await userService . login ( {
request : {
slug : "singulatron" ,
password : "changeme" ,
} ,
} ) ;
const promptSvc = new PromptSvcApi (
new Configuration ( {
apiKey : loginResponse . token ?. token ,
} )
) ;
let promptRsp = await promptSvc . addPrompt ( {
request : {
sync : true ,
prompt : "Is a cat an animal? Just answer with yes or no please." ,
} ,
} ) ;
console . log ( promptRsp ) ;
}
testDrive ( ) ;
และวิ่ง
$ node index.js
{
answer: ' Yes, a cat is an animal.n ' +
' n ' +
' But if you meant to ask whether cats are domesticated animals or pets, then the answer is also yes. Cats belong to the Felidae family and are common household pets around the world. They are often kept for companionship and to control rodent populations. ' ,
prompt: undefined
}
AI อาจใช้เวลาสักครู่ในการตอบสนอง ทั้งนี้ขึ้นอยู่กับระบบของคุณ ในกรณีที่ต้องใช้เวลานานในการตรวจสอบบันทึกแบ็กเอนด์หากกำลังประมวลผลอยู่ คุณจะเห็นสิ่งนี้:
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:14.602762664Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :1, " totalResponses " :1}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:15.602328634Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :4, " totalResponses " :9}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:16.602428481Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :5, " totalResponses " :17}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:17.602586968Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :6, " totalResponses " :24}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:18.602583176Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :6, " totalResponses " :31}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:19.602576641Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :6, " totalResponses " :38}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:20.602284446Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :6, " totalResponses " :46}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:21.602178149Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :6, " totalResponses " :53}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:22.602470024Z " , " level " : " DEBUG " , " msg " : " LLM is streaming " , " promptId " : " prom_e3SA9bJV5u " , " responsesPerSecond " :6, " totalResponses " :61}
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:23.174054316Z " , " level " : " INFO " , " msg " : " Saving chat message " , " messageId " : " msg_e3SARBJAZe " }
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:23.175854857Z " , " level " : " DEBUG " , " msg " : " Event published " , " eventName " : " chatMessageAdded " }
superplatform-backend-1 | { " time " : " 2024-11-27T17:27:23.176260122Z " , " level " : " DEBUG " , " msg " : " Finished streaming LLM " , " error " : " <nil> " }
Superplatform เป็นแพลตฟอร์มไมโครเซอร์วิสที่นึกถึงครั้งแรกในปี 2013 ตอนที่ฉันทำงานให้กับคู่แข่ง Uber ชื่อ Hailo ฉันล้มเลิกความคิดนี้ไป โดยคิดว่าจะมีคนอื่นสร้างมันขึ้นมาในที่สุด ตอนนี้ ด้วยความเจริญรุ่งเรืองของ AI และแอป AI ทั้งหมดที่เรากำลังจะเปิดตัว ฉันรู้แล้วว่าจะต้องสร้างมันขึ้นมาเองเนื่องจากไม่มีใครมี
เป็นเซิร์ฟเวอร์และระบบนิเวศที่ช่วยให้คุณสามารถโฮสต์โมเดล AI ด้วยตนเอง สร้างแอปที่ใช้ประโยชน์จากโมเดลเหล่านั้นในภาษาใดก็ได้ และใช้แบ็กเอนด์ชุมชนที่ใช้ไมโครเซอร์วิสซึ่งออกแบบมาเพื่อสนับสนุนโครงการที่หลากหลาย
ดูหน้านี้เพื่อช่วยคุณในการเริ่มต้น
ดู https://superplatform.ai/docs/category/superplatform-api/
เราได้ยุติการจำหน่ายเวอร์ชันเดสก์ท็อปชั่วคราว โปรดดูหน้านี้สำหรับวิธีอื่นในการรันซอฟต์แวร์
Superplatform ได้รับอนุญาตภายใต้ AGPL-3.0