beta9
Worker: 0.1.247
在世界任何地方的裸機伺服器上透過快速冷啟動運行無伺服器 GPU 工作負載
英語 | 簡體中文 | 繁體中文 |土耳其 | हिंदी |葡萄牙語(巴西)|義大利 |西班牙語 | 한국어 | 日本語
將endpoint
裝飾器新增到您的程式碼中,您將獲得一個負載平衡的 HTTP 端點(帶有身份驗證!)來呼叫您的程式碼。
您也可以使用@function
運行長時間運行的函數,使用@task_queue
部署任務佇列,並使用@schedule
排程作業:
from beta9 import endpoint
# This will run on a remote A100-40 in your cluster
@ endpoint ( cpu = 1 , memory = 128 , gpu = "A100-40" )
def square ( i : int ):
return i ** 2
使用單一命令進行部署:
$ beta9 deploy app.py:square --name inference
=> Building image
=> Using cached image
=> Deployed ?
curl -X POST 'https://inference.beam.cloud/v1'
-H 'Authorization: Bearer [YOUR_AUTH_TOKEN]'
-H 'Content-Type: application/json'
-d '{}'
使用一個 CLI 命令和一個 cURL 將任何 GPU 連接到您的叢集。
$ beta9 machine create --pool lambda-a100-40
= > Created machine with ID: ' 9541cbd2 ' . Use the following command to set up the node:
#! /bin/bash
sudo curl -L -o agent https://release.beam.cloud/agent/agent &&
sudo chmod +x agent &&
sudo ./agent --token " AUTH_TOKEN "
--machine-id " 9541cbd2 "
--tailscale-url " "
--tailscale-auth " AUTH_TOKEN "
--pool-name " lambda-a100-40 "
--provider-name " lambda "
您可以在虛擬機器上執行此安裝腳本以將其連接到叢集。
使用集中控制平面管理分散式跨區域群集。
$ beta9 machine list
| ID | CPU | Memory | GPU | Status | Pool |
| ---------- | --------- | ------------ | --------- | ------------ | ------------- |
| edc9c2d2 | 30,000m | 222.16 GiB | A10G | registered | lambda-a10g |
| d87ad026 | 30,000m | 216.25 GiB | A100-40 | registered | gcp-a100-40 |
您可以在本地運行 Beta9,也可以使用我們的 Helm 圖表在現有 Kubernetes 叢集中運行。
k3d用於本地開發。您需要 Docker 才能開始。
若要使用我們的全自動設置,請執行setup
make 目標。
make setup
SDK是用Python寫的。您需要 Python 3.8 或更高版本。使用setup-sdk
make 目標開始。
make setup-sdk
設定伺服器和 SDK 後,請在此處查看 SDK 自述文件。
我們歡迎大大小小的貢獻。這些是對我們最有幫助的事:
如果您需要支持,可以透過以下任一管道聯繫: