beta9
Worker: 0.1.247
在世界任何地方的裸机服务器上通过快速冷启动运行无服务器 GPU 工作负载
英语 | 简体中文 | 繁体中文 |土耳其 | हिंदी |葡萄牙语(巴西)|意大利 |西班牙语 | 한국어 | 日本语
将endpoint
装饰器添加到您的代码中,您将获得一个负载平衡的 HTTP 端点(带有身份验证!)来调用您的代码。
您还可以使用@function
运行长时间运行的函数,使用@task_queue
部署任务队列,并使用@schedule
安排作业:
from beta9 import endpoint
# This will run on a remote A100-40 in your cluster
@ endpoint ( cpu = 1 , memory = 128 , gpu = "A100-40" )
def square ( i : int ):
return i ** 2
使用单个命令进行部署:
$ beta9 deploy app.py:square --name inference
=> Building image
=> Using cached image
=> Deployed ?
curl -X POST 'https://inference.beam.cloud/v1'
-H 'Authorization: Bearer [YOUR_AUTH_TOKEN]'
-H 'Content-Type: application/json'
-d '{}'
使用一个 CLI 命令和一个 cURL 将任何 GPU 连接到您的集群。
$ beta9 machine create --pool lambda-a100-40
= > Created machine with ID: ' 9541cbd2 ' . Use the following command to set up the node:
#! /bin/bash
sudo curl -L -o agent https://release.beam.cloud/agent/agent &&
sudo chmod +x agent &&
sudo ./agent --token " AUTH_TOKEN "
--machine-id " 9541cbd2 "
--tailscale-url " "
--tailscale-auth " AUTH_TOKEN "
--pool-name " lambda-a100-40 "
--provider-name " lambda "
您可以在虚拟机上运行此安装脚本以将其连接到集群。
使用集中控制平面管理分布式跨区域集群。
$ beta9 machine list
| ID | CPU | Memory | GPU | Status | Pool |
| ---------- | --------- | ------------ | --------- | ------------ | ------------- |
| edc9c2d2 | 30,000m | 222.16 GiB | A10G | registered | lambda-a10g |
| d87ad026 | 30,000m | 216.25 GiB | A100-40 | registered | gcp-a100-40 |
您可以在本地运行 Beta9,也可以使用我们的 Helm 图表在现有 Kubernetes 集群中运行。
k3d用于本地开发。您需要 Docker 才能开始。
要使用我们的全自动设置,请运行setup
make 目标。
make setup
SDK是用Python编写的。您需要 Python 3.8 或更高版本。使用setup-sdk
make 目标开始。
make setup-sdk
设置服务器和 SDK 后,请在此处查看 SDK 自述文件。
我们欢迎大大小小的贡献。这些是对我们最有帮助的事情:
如果您需要支持,可以通过以下任一渠道联系: