Execute cargas de trabalho de GPU sem servidor com inicializações a frio rápidas em servidores bare-metal, em qualquer lugar do mundo
Inglês | 简体中文 | 繁體中文 | Turquia | हिंदी | Português (Brasil) | Italiano | Espanhol | 한국어 | 日本語
Adicione um decorador endpoint
ao seu código e você obterá um endpoint HTTP com balanceamento de carga (com autenticação!) para invocar seu código.
Você também pode executar funções de longa duração com @function
, implantar filas de tarefas usando @task_queue
e agendar jobs com @schedule
:
from beta9 import endpoint
# This will run on a remote A100-40 in your cluster
@ endpoint ( cpu = 1 , memory = 128 , gpu = "A100-40" )
def square ( i : int ):
return i ** 2
Implante com um único comando:
$ beta9 deploy app.py:square --name inference
=> Building image
=> Using cached image
=> Deployed ?
curl -X POST 'https://inference.beam.cloud/v1'
-H 'Authorization: Bearer [YOUR_AUTH_TOKEN]'
-H 'Content-Type: application/json'
-d '{}'
Conecte qualquer GPU ao seu cluster com um comando CLI e um cURL.
$ beta9 machine create --pool lambda-a100-40
= > Created machine with ID: ' 9541cbd2 ' . Use the following command to set up the node:
#! /bin/bash
sudo curl -L -o agent https://release.beam.cloud/agent/agent &&
sudo chmod +x agent &&
sudo ./agent --token " AUTH_TOKEN "
--machine-id " 9541cbd2 "
--tailscale-url " "
--tailscale-auth " AUTH_TOKEN "
--pool-name " lambda-a100-40 "
--provider-name " lambda "
Você pode executar este script de instalação em sua VM para conectá-la ao cluster.
Gerencie seu cluster distribuído entre regiões usando um plano de controle centralizado.
$ beta9 machine list
| ID | CPU | Memory | GPU | Status | Pool |
| ---------- | --------- | ------------ | --------- | ------------ | ------------- |
| edc9c2d2 | 30,000m | 222.16 GiB | A10G | registered | lambda-a10g |
| d87ad026 | 30,000m | 216.25 GiB | A100-40 | registered | gcp-a100-40 |
Você pode executar o Beta9 localmente ou em um cluster Kubernetes existente usando nosso gráfico Helm.
k3d é usado para desenvolvimento local. Você precisará do Docker para começar.
Para usar nossa configuração totalmente automatizada, execute o setup
make target.
make setup
O SDK é escrito em Python. Você precisará do Python 3.8 ou superior. Use o setup-sdk
make target para começar.
make setup-sdk
Depois de configurar o servidor e o SDK, confira o leia-me do SDK aqui.
Aceitamos contribuições grandes ou pequenas. Estas são as coisas mais úteis para nós:
Se precisar de suporte, você pode entrar em contato por meio de qualquer um destes canais: