การสาธิตสด
เข้าร่วม Discord ชุมชนของเรา: AI Stack Devs
AI Town คือเมืองเสมือนจริงที่ตัวละคร AI อาศัยอยู่ พูดคุย และเข้าสังคม
โปรเจ็กต์นี้เป็นชุดเริ่มต้นที่ปรับใช้ได้สำหรับการสร้างและปรับแต่งเมือง AI เวอร์ชันของคุณเองได้อย่างง่ายดาย แรงบันดาลใจจากรายงานการวิจัย Generative Agents: Interactive Simulacra of Human Behavior
เป้าหมายหลักของโปรเจ็กต์นี้ นอกเหนือจากการสร้างความสนุกสนานในการทำงานแล้ว คือการจัดเตรียมแพลตฟอร์มที่มีรากฐานที่แข็งแกร่งและพร้อมจะขยายออกไป แบ็กเอนด์สนับสนุนสถานะส่วนกลาง ธุรกรรม และเครื่องมือจำลองที่ใช้ร่วมกัน โดยธรรมชาติ และควรเหมาะสมตั้งแต่ทุกอย่างตั้งแต่โปรเจ็กต์ง่ายๆ ไปจนถึงเกมที่มีผู้เล่นหลายคนที่ปรับขนาดได้ เป้าหมายรองคือการทำให้เฟรมเวิร์ก JS/TS พร้อมใช้งาน เนื่องจากตัวจำลองส่วนใหญ่ในพื้นที่นี้ (รวมถึงบทความต้นฉบับด้านบน) เขียนด้วย Python
llama3
และการฝังด้วย mxbai-embed-large
หมายเหตุ : มีการติดตั้งทางแยกของโปรเจ็กต์นี้ใน Pinokio เพียงคลิกเดียวสำหรับทุกคนที่สนใจใช้งานแต่ไม่ได้แก้ไข
git clone https://github.com/a16z-infra/ai-town.git
cd ai-town
npm install
ดาวน์โหลดไบนารีที่สร้างไว้ล่วงหน้า (แนะนำ) หรือสร้างจากแหล่งที่มาแล้วเรียกใช้
# For new Macs:
curl -L -O https://github.com/get-convex/convex-backend/releases/latest/download/convex-local-backend-aarch64-apple-darwin.zip
unzip convex-local-backend-aarch64-apple-darwin.zip
brew install just
# Runs the server
./convex-local-backend
สิ่งนี้ยังติดตั้ง just
(เช่น brew install just
หรือ cargo install just
) เราใช้ just
like make
เพื่อเพิ่มพารามิเตอร์พิเศษ ดังนั้นคุณจึงรัน just convex ...
แทนที่จะเป็น npx convex ...
เพื่อการพัฒนาท้องถิ่น
หากคุณใช้ไบนารีที่สร้างไว้ล่วงหน้าบน Mac และมีคำเตือนของ Apple ให้ไปที่โฟลเดอร์ที่ไบนารีนั้นอยู่และคลิกขวาแล้วเลือก "เปิด" เพื่อข้าม จากนั้นคุณสามารถเรียกใช้งานได้จากบรรทัดคำสั่ง หรือคุณสามารถคอมไพล์จากแหล่งที่มาแล้วรันได้ (ดูด้านบน)
คุณสามารถปล่อยให้แอปทำงานหรือเรียกใช้ ollama serve
ได้ ollama serve
จะเตือนคุณหากแอปกำลังทำงานอยู่ เรียกใช้ ollama pull llama3
เพื่อดาวน์โหลด llama3
ทดสอบกับ ollama run llama3
หากคุณต้องการปรับแต่งโมเดลที่จะใช้ ให้ปรับ convex/util/llm.ts หรือตั้งค่า just convex env set LLM_MODEL # model
สามารถดูตัวเลือกโมเดล Ollama ได้ที่นี่
คุณอาจต้องการตั้งค่า NUM_MEMORIES_TO_SEARCH
เป็น 1
ใน Constants.ts เพื่อลดขนาดข้อความแจ้งการสนทนา หากคุณเห็นว่าการทำงานช้า
ตรวจสอบ convex/config.ts
เพื่อกำหนดค่าโมเดลที่จะเสนอให้กับ UI หรือตั้งค่าให้พูดคุยกับ LLM ที่โฮสต์บนคลาวด์
สำหรับการสร้างเพลงพื้นหลังรายวัน ให้สร้างบัญชีจำลองและสร้างโทเค็นในหน้าโทเค็น API ของโปรไฟล์ของคุณ just convex env set REPLICATE_API_TOKEN # token
หากต้องการวิ่งทั้งส่วนหน้าและส่วนหลัง:
npm run dev
หมายเหตุ : หากคุณพบข้อผิดพลาดเวอร์ชันโหนดบนเซิร์ฟเวอร์นูนเมื่อเริ่มต้นแอปพลิเคชัน โปรดใช้โหนดเวอร์ชัน 18 ซึ่งเสถียรที่สุด วิธีหนึ่งในการทำเช่นนี้คือการติดตั้ง nvm และรัน nvm install 18
หรือ nvm use 18
ทำสิ่งนี้ก่อนที่ทั้ง npm run dev
ด้านบนและ ./convex-local-backend
convex-local-backend ในขั้นตอนที่ 2
ตอนนี้คุณสามารถไปที่ http://localhost:5173
หากคุณต้องการเรียกใช้ฟรอนต์เอนด์ในเทอร์มินัลที่แยกจาก Convex (ซึ่งจะซิงค์ฟังก์ชันแบ็กเอนด์ของคุณในขณะที่บันทึกไว้) คุณสามารถเรียกใช้สองคำสั่งนี้:
npm run dev:frontend
npm run dev:backend
ดู package.json สำหรับรายละเอียด แต่ dev:backend ทำงาน just convex dev
หมายเหตุ : การจำลองจะหยุดชั่วคราวหลังจากผ่านไป 5 นาที หากหน้าต่างไม่ได้ใช้งาน การโหลดหน้าเว็บจะยกเลิกการหยุดชั่วคราว คุณสามารถแช่แข็งและยกเลิกการแช่แข็งโลกได้ด้วยตนเองด้วยปุ่มใน UI หากคุณต้องการควบคุมโลกโดยไม่ใช้เบราว์เซอร์ คุณสามารถแสดงความคิดเห็น cron "stop inactive worlds" ใน convex/crons.ts
เพื่อหยุดส่วนหลังในกรณีที่มีกิจกรรมมากเกินไป
สิ่งนี้จะหยุดการทำงานของเครื่องยนต์และตัวแทน คุณยังคงเรียกใช้แบบสอบถามและเรียกใช้ฟังก์ชันเพื่อแก้ไขข้อบกพร่องได้
just convex run testing:stop
เพื่อรีสตาร์ทส่วนหลังหลังจากหยุดแล้ว
just convex run testing:resume
เพื่อเตะเครื่องยนต์ในกรณีที่เอ็นจิ้นเกมหรือตัวแทนไม่ทำงาน
just convex run testing:kick
เพื่อเก็บถาวรโลก
หากคุณต้องการรีเซ็ตโลกและเริ่มต้นใหม่ คุณสามารถเก็บถาวรโลกปัจจุบันได้:
just convex run testing:archive
จากนั้น คุณยังคงสามารถดูข้อมูลของโลกได้ในแดชบอร์ด แต่กลไกและตัวแทนจะไม่ทำงานอีกต่อไป
จากนั้นคุณสามารถสร้างโลกใหม่ด้วย init
just convex run init
เพื่อล้างฐานข้อมูลทั้งหมด
คุณสามารถล้างตารางทั้งหมดได้ด้วยฟังก์ชันการทดสอบ wipeAllTables
just convex run testing:wipeAllTables
หากต้องการหยุดการใช้งานแบ็กเอนด์ชั่วคราว
คุณสามารถไปที่แดชบอร์ดเพื่อไปที่การตั้งค่าการปรับใช้งานเพื่อหยุดและยกเลิกการหยุดการปรับใช้งานชั่วคราว การดำเนินการนี้จะหยุดฟังก์ชันทั้งหมด ไม่ว่าจะเรียกใช้จากไคลเอ็นต์ ตามกำหนดเวลา หรือเป็นงาน cron มองว่านี่เป็นทางเลือกสุดท้าย เนื่องจากมีวิธีที่นุ่มนวลกว่าในการหยุดด้านบน เมื่อคุณ
แก้ไขไฟล์ package.json
ของคุณเพื่อเพิ่มตัวเลือก --host
ไปยังเซิร์ฟเวอร์ส่วนหน้าของคุณ (Vite):
{
"name" : " ai-town " ,
"version" : " 0.0.0 " ,
"private" : true ,
"scripts" : {
"dev" : " npm-run-all --parallel dev:frontend dev:backend " ,
"build" : " tsc && vite build " ,
"lint" : " eslint . " ,
"predev" : " just convex dev --run init --until-success " ,
"dev:backend" : " just convex dev --tail-logs " ,
"dev:frontend" : " vite --host " , // <------------------------------------------ modify this line
"test" : " NODE_OPTIONS=--experimental-vm-modules jest --verbose " ,
"le" : " vite src/editor/ "
}
}
รันคำสั่งต่อไปนี้เพื่อเปิดใช้ Docker Compos:
docker-compose up --build
เมื่อเสร็จแล้วคุณสามารถปิดเทอร์มินัลได้
ในเทอร์มินัลอื่นที่ยังอยู่ในไดเร็กทอรี aitown
ให้เปิดเทอร์มินัล Docker แบบโต้ตอบ:
docker-compose exec ai-town /bin/bash
ดาวน์โหลดและแตกไฟล์แบ็กเอนด์ Convex ในเครื่อง:
curl -L -O https://github.com/get-convex/convex-backend/releases/download/precompiled-2024-06-28-91981ab/convex-local-backend-x86_64-unknown-linux-gnu.zip
unzip convex-local-backend-x86_64-unknown-linux-gnu.zip
ตรวจสอบว่าไฟล์ convex-local-backend
อยู่ในไดเร็กทอรี จากนั้นลบไฟล์ zip:
rm convex-local-backend-x86_64-unknown-linux-gnu.zip
ทำให้ไฟล์ปฏิบัติการได้:
chmod +x /usr/src/app/convex-local-backend
เปิดเซิร์ฟเวอร์แบ็กเอนด์ Convex:
./convex-local-backend
ในเทอร์มินัลอื่นในไดเร็กทอรี aitown
ให้เปิดใหม่:
docker-compose exec ai-town /bin/bash
กำหนดค่า socat
ด้วยที่อยู่ IP ของโฮสต์:
HOST_IP=YOUR-HOST-IP # Use your host's IP address (not the Docker IP)
socat TCP-LISTEN:11434,fork TCP: $HOST_IP :11434 &
ทดสอบการเชื่อมต่อ:
curl http://localhost:11434/
ถ้ามีข้อความว่า "Ollama is running" ก็ดีนะ!
ตรวจสอบให้แน่ใจว่า Convex รู้ว่าจะหา Ollama ได้ที่ไหน (เพื่อข้ามข้อผิดพลาดลึกลับแบบสุ่ม ...):
just convex env set OLLAMA_HOST http://localhost:11434
อัปเดตรายการเบราว์เซอร์:
npx update-browserslist-db@latest
เปิดตัวเมือง AI:
npm run dev
เปิดคอนเทนเนอร์จากนั้นเพียงเปิดสองเทอร์มินัลในโฟลเดอร์ AI-town ของคุณด้วย docker-compose exec ai-town /bin/bash
เปิดตัวเซิร์ฟเวอร์แบ็กเอนด์ Convex: bash ./convex-local-backend
และในเทอร์มินัลที่สองเพียงกำหนดค่า Socat เปิด AI Town
ก่อนอื่นคุณต้องติดตั้ง WSL2 ปฏิบัติตามคำแนะนำนี้เพื่อตั้งค่า WSL2 บนเครื่อง Windows ของคุณ เราขอแนะนำให้ใช้ Ubuntu เป็นระบบปฏิบัติการ Linux ของคุณ
เปิดเทอร์มินัล WSL ของคุณ (Ubuntu) และอัพเดตแพ็คเกจของคุณ:
sudo apt update
NVM (Node Version Manager) ช่วยจัดการ Node.js หลายเวอร์ชัน ติดตั้ง NVM และ Node.js 18 (เวอร์ชันเสถียร):
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.2/install.sh | bash
export NVM_DIR="$([ -z "${XDG_CONFIG_HOME-}" ] && printf %s "${HOME}/.nvm" || printf %s "${XDG_CONFIG_HOME}/nvm")"
[ -s "$NVM_DIR/nvm.sh" ] && . "$NVM_DIR/nvm.sh"
source ~/.bashrc
nvm install 18
nvm use 18
จำเป็นต้องใช้ Python สำหรับการขึ้นต่อกันบางอย่าง ติดตั้ง Python และ Pip:
sudo apt-get install python3 python3-pip
sudo ln -s /usr/bin/python3 /usr/bin/python
ติดตั้ง unzip
และ socat
:
sudo apt install unzip socat
Cargo เป็นตัวจัดการแพ็คเกจของ Rust ติดตั้งสนิมและสินค้า:
curl --proto '=https' --tlsv1.2 -sSf https://sh.rustup.rs | sh
source $HOME/.cargo/env
just
กับ Cargo just
ใช้เพื่อรันคำสั่ง ติดตั้งด้วย Cargo:
cargo install just
export PATH="$HOME/.cargo/bin:$PATH"
just --version
socat
เป็น Bridge Ports สำหรับ Ollamaรันคำสั่งต่อไปนี้เพื่อบริดจ์พอร์ต เพื่อให้สามารถสื่อสารระหว่าง Convex และ Ollama:
socat TCP-LISTEN:11434,fork TCP:$(cat /etc/resolv.conf | grep nameserver | awk '{print $2}'):11434 &
ทดสอบว่ามันใช้งานได้หรือไม่:
curl http://127.0.0.1:11434
หากตอบสนองได้ แสดงว่า Ollama API จะสามารถเข้าถึงได้
โคลนพื้นที่เก็บข้อมูล AI Town จาก GitHub:
git clone https://github.com/a16z-infra/ai-town.git
cd ai-town
ติดตั้งแพ็คเกจ npm ที่จำเป็น:
npm install
ดาวน์โหลดและติดตั้ง Convex เวอร์ชันที่คอมไพล์แล้ว:
curl -L -O https://github.com/get-convex/convex-backend/releases/download/precompiled-2024-06-28-91981ab/convex-local-backend-x86_64-unknown-linux-gnu.zip
unzip convex-local-backend-x86_64-unknown-linux-gnu.zip
rm convex-local-backend-x86_64-unknown-linux-gnu.zip
chmod +x convex-local-backend
ในเทอร์มินัลที่แยกต่างหาก ให้เปิด Convex:
./convex-local-backend
ตั้งค่าโฮสต์ Ollama เป็นแบบ Convex:
just convex env set OLLAMA_HOST http://localhost:11434
ในที่สุด เปิดตัว AI Town:
npm run dev
ไปที่ http://localhost:5173
ในเบราว์เซอร์ของคุณเพื่อดูการทำงานของ AI Town
หากคุณต้องการรีสตาร์ทบริการ:
ตรวจสอบให้แน่ใจว่า socat
กำลังทำงานอยู่:
socat TCP-LISTEN:11434,fork TCP:$(cat /etc/resolv.conf | grep nameserver | awk '{พิมพ์ $2}'):11434 &
เปิดตัวนูน:
./convex-local-backend
ในเทอร์มินัลอื่น : 3. เปิด AI Town:
npm run dev
หมายเหตุ: ทุกครั้งที่คุณเปลี่ยนข้อมูลอักขระ คุณควรรันใหม่ just convex run testing:wipeAllTables
จากนั้น npm run dev
เพื่ออัปโหลดทุกอย่างไปยัง Convex อีกครั้ง เนื่องจากข้อมูลอักขระจะถูกส่งไปยัง Convex ในการโหลดครั้งแรก อย่างไรก็ตาม ระวังว่า just convex run testing:wipeAllTables
จะล้างข้อมูลทั้งหมดของคุณ
สร้างตัวละครและเรื่องราวของคุณเอง: ตัวละครและเรื่องราวทั้งหมด รวมถึงการอ้างอิงสไปรท์ชีทจะถูกจัดเก็บไว้ใน character.ts คุณสามารถเริ่มต้นด้วยการเปลี่ยนคำอธิบายอักขระ
กำลังอัปเดตสไปรท์ชีต: ใน data/characters.ts
คุณจะเห็นโค้ดนี้:
export const characters = [
{
name : 'f1' ,
textureUrl : '/assets/32x32folk.png' ,
spritesheetData : f1SpritesheetData ,
speed : 0.1 ,
} ,
...
] ;
คุณควรค้นหาภาพต่อเรียงสำหรับตัวละครของคุณ และกำหนดการเคลื่อนไหวของภาพต่อเรียง / เนื้อหาในไฟล์ที่เกี่ยวข้อง (ในตัวอย่างข้างต้น f1SpritesheetData
ถูกกำหนดไว้ใน f1.ts)
อัปเดตพื้นหลัง (สภาพแวดล้อม): แผนที่ได้รับการโหลดใน convex/init.ts
จาก data/gentle.js
หากต้องการอัปเดตแผนที่ ให้ทำตามขั้นตอนเหล่านี้:
convertMap.js
เพื่อแปลง JSON เป็นรูปแบบที่กลไกสามารถใช้ได้ node data/convertMap.js <mapDataPath> <assetPath> <tilesetpxw> <tilesetpxh>
<mapDataPath>
: เส้นทางไปยังไฟล์ Tiled JSON<assetPath>
: เส้นทางไปยังรูปภาพชุดไทล์<tilesetpxw>
: ความกว้างของชุดกระเบื้องเป็นพิกเซล<tilesetpxh>
: ความสูงของชุดกระเบื้องเป็นพิกเซล สร้าง converted-map.js
ที่คุณสามารถใช้เหมือนกับ gentle.js
convex/music.ts
convex/crons.ts
โดยการปรับเปลี่ยนงาน generate new background music
กำหนดค่า convex/util/llm.ts
หรือตั้งค่าตัวแปร env เหล่านี้:
just convex env set LLM_API_HOST # url
just convex env set LLM_MODEL # model
จำเป็นต้องเปลี่ยนการกำหนดค่าโมเดลการฝังในโค้ด เนื่องจากคุณต้องระบุมิติการฝัง
สำหรับ Together.ai โปรดไปที่ https://api.together.xyz/settings/api-keys สำหรับ OpenAI โปรดไปที่ https://platform.openai.com/account/api-keys
คุณสามารถเรียกใช้แบ็กเอนด์ Convex ในระบบคลาวด์ได้เพียงแค่เรียกใช้
npx convex dev --until-success --configure
และอัปเดตสคริปต์ package.json
เพื่อลบ just
: change just convex ...
to convex ...
จากนั้นคุณจะต้องตั้งค่าตัวแปรสภาพแวดล้อมใด ๆ ที่คุณมีภายในเครื่องในสภาพแวดล้อมคลาวด์ด้วย npx convex env set
หรือบนแดชบอร์ด: https://dashboard.convex.dev/deployment/settings/environment-variables
ก่อนที่คุณจะสามารถเรียกใช้แอปได้ คุณจะต้องตรวจสอบให้แน่ใจว่าฟังก์ชัน Convex ได้รับการปรับใช้กับสภาพแวดล้อมการใช้งานจริงแล้ว
npx convex deploy
เพื่อปรับใช้ฟังก์ชันนูนกับการใช้งานจริงnpx convex run init --prod
หากคุณมีข้อมูลอยู่แล้วที่ต้องการล้าง คุณสามารถเรียกใช้ npx convex run testing:wipeAllTables --prod
คุณสามารถเพิ่มเสมียนรับรองความถูกต้องกลับเข้ามาด้วย git revert b44a436
หรือเพียงแค่ดูความแตกต่างนั้นเพื่อดูว่ามีอะไรเปลี่ยนแปลงเพื่อลบออก
ทำบัญชีเสมียน
VITE_CLERK_PUBLISHABLE_KEY
และ CLERK_SECRET_KEY
ไปที่ .env.local
VITE_CLERK_PUBLISHABLE_KEY=pk_ ***
CLERK_SECRET_KEY=sk_ ***
just convex env set CLERK_ISSUER_URL # e.g. https://your-issuer-url.clerk.accounts.dev/
vercel login
vercel --prod
เราสนับสนุนการใช้ Ollama สำหรับรุ่นการสนทนา หากต้องการให้เข้าถึงได้จากเว็บ คุณสามารถใช้ Tunnelmole หรือ Ngrok หรือที่คล้ายกัน
การใช้อุโมงค์โมล
Tunnelmole เป็นเครื่องมือขุดอุโมงค์แบบโอเพ่นซอร์ส
คุณสามารถติดตั้ง Tunnelmole ได้โดยใช้ตัวเลือกใดตัวเลือกหนึ่งต่อไปนี้:
npm install -g tunnelmole
curl -s https://tunnelmole.com/sh/install-linux.sh | sudo bash
curl -s https://tunnelmole.com/sh/install-mac.sh --output install-mac.sh && sudo bash install-mac.sh
exe
สำหรับ Windows ที่นี่ และวางไว้ที่ไหนสักแห่งใน PATH ของคุณเมื่อติดตั้ง Tunnelmole แล้ว ให้รันคำสั่งต่อไปนี้:
tmole 11434
Tunnelmole ควรแสดง URL ที่ไม่ซ้ำเมื่อคุณรันคำสั่งนี้
การใช้ Ngrok
Ngrok เป็นเครื่องมือขุดอุโมงค์แบบปิดที่ได้รับความนิยม
เมื่อติดตั้งและรับรองความถูกต้องของ ngrok แล้ว ให้รันคำสั่งต่อไปนี้:
ngrok http http://localhost:11434
Ngrok ควรส่งออก URL ที่ไม่ซ้ำกันเมื่อคุณรันคำสั่งนี้
เพิ่มจุดสิ้นสุด Ollama ไปที่ Convex
just convex env set OLLAMA_HOST # your tunnelmole/ngrok unique url from the previous step
อัปเดตโดเมน Ollama
Ollama มีรายชื่อโดเมนที่ยอมรับ เพิ่มโดเมน ngrok เพื่อไม่ให้ปฏิเสธการรับส่งข้อมูล ดู ollama.ai สำหรับรายละเอียดเพิ่มเติม
Convex เป็นแพลตฟอร์มแบ็กเอนด์ที่โฮสต์ซึ่งมีฐานข้อมูลในตัวที่ให้คุณเขียนสคีมาฐานข้อมูลและฟังก์ชันเซิร์ฟเวอร์ใน TypeScript การสืบค้นฐานข้อมูลฝั่งเซิร์ฟเวอร์จะแคชและสมัครรับข้อมูลโดยอัตโนมัติ ซึ่งขับเคลื่อนฮุค useQuery
แบบเรียลไทม์ในไคลเอนต์ React ของเรา นอกจากนี้ยังมีไคลเอนต์สำหรับ Python, Rust, ReactNative และ Node รวมถึง HTTP API ที่ตรงไปตรงมา
ฐานข้อมูลรองรับเอกสารสไตล์ NoSQL พร้อมการตรวจสอบความถูกต้องของสคีมา ความสัมพันธ์ และดัชนีที่กำหนดเอง (รวมถึงในฟิลด์ในออบเจ็กต์ที่ซ้อนกัน)
ฟังก์ชันเซิร์ฟเวอร์ query
และ mutation
มีธุรกรรมที่เข้าถึงฐานข้อมูลได้ในเวลาแฝงต่ำ และใช้ประโยชน์จากรันไทม์ v8
ของเราด้วยการป้องกันระดับที่กำหนดเพื่อให้การรับประกัน ACID ที่แข็งแกร่งที่สุดในตลาด: ความสอดคล้องทันที การแยกแบบอนุกรมได้ และการแก้ไขข้อขัดแย้งอัตโนมัติผ่านการควบคุมการทำงานพร้อมกันหลายเวอร์ชันในแง่ดี (โอซีซี/เอ็มวีซีซี)
ฟังก์ชันเซิร์ฟเวอร์ action
สามารถเข้าถึง API ภายนอกและเปิดใช้งานผลข้างเคียงและการกำหนดไม่ได้อื่นๆ ในรันไทม์ v8
ที่ปรับให้เหมาะสมของเราหรือรันไทม์ของ node
ที่ยืดหยุ่นมากขึ้น
ฟังก์ชันต่างๆ สามารถทำงานในเบื้องหลังผ่านการกำหนดเวลาและงาน cron
การพัฒนาเน้นที่คลาวด์เป็นหลัก โดยมีการโหลดซ้ำอย่างรวดเร็วสำหรับการแก้ไขฟังก์ชันเซิร์ฟเวอร์ผ่าน CLI การดูตัวอย่าง การบันทึกและการรวมการรายงานข้อยกเว้น มี UI แดชบอร์ดเพื่อเรียกดูและแก้ไขข้อมูล แก้ไขตัวแปรสภาพแวดล้อม ดูบันทึก เรียกใช้ฟังก์ชันเซิร์ฟเวอร์ และอื่นๆ .
มีคุณสมบัติในตัวสำหรับการแบ่งหน้าเชิงโต้ตอบ พื้นที่จัดเก็บไฟล์ การค้นหาข้อความเชิงโต้ตอบ การค้นหาเวกเตอร์ จุดสิ้นสุด https (สำหรับ webhooks) การนำเข้า/ส่งออกสแน็ปช็อต การนำเข้า/ส่งออกแบบสตรีม และการตรวจสอบรันไทม์สำหรับอาร์กิวเมนต์ของฟังก์ชันและข้อมูลฐานข้อมูล
ทุกอย่างจะปรับขนาดโดยอัตโนมัติ และเริ่มต้นได้ฟรี