Willkommen in der offiziellen Python-Bibliothek für RunPod API & SDK.
Inhaltsverzeichnis
|Installation
Serverloser Worker (SDK)
Schnellstart
Lokaler Testarbeiter
API-Sprachbibliothek (GraphQL Wrapper)
Endpunkte
GPU-Cloud (Pods)
Verzeichnis
Gemeinschaft und Mitwirken
# Installieren Sie die neueste Release-Versionpip install runpod# oder# Installieren Sie die neueste Entwicklungsversion (Hauptzweig)pip install git+https://github.com/runpod/runpod-python.git
Um die neueste Version dieses Pakets verwenden zu können, ist Python 3.8 oder höher erforderlich.
Dieses Python-Paket kann auch zum Erstellen eines serverlosen Workers verwendet werden, der als benutzerdefinierte Endpunkt-API auf RunPod bereitgestellt werden kann.
Erstellen Sie in Ihrem Projekt ein Python-Skript, das Ihre Modelldefinition und den RunPod-Worker-Startcode enthält. Führen Sie diesen Python-Code als Standard-Container-Startbefehl aus:
# my_worker.pyimport runpoddef is_even(job):job_input = job["input"]the_number = job_input["number"]if not isinstance(the_number, int):return {"error": "Dummer Mensch, du musst eine übergeben integer."}if the_number % 2 == 0:return Truereturn Falserunpod.serverless.start({"handler": is_even})
Stellen Sie sicher, dass diese Datei ausgeführt wird, wenn Ihr Container startet. Dies kann erreicht werden, indem Sie es im Docker-Befehl aufrufen, wenn Sie eine Vorlage unter runpod.io/console/serverless/user/templates einrichten, oder indem Sie es als Standardbefehl in Ihrer Docker-Datei festlegen.
Lesen Sie unseren Blogbeitrag zum Erstellen einer grundlegenden serverlosen API oder sehen Sie sich die Detaildokumente für weitere Informationen an.
Sie können Ihren Worker auch lokal testen, bevor Sie ihn auf RunPod bereitstellen. Dies ist nützlich zum Debuggen und Testen.
python my_worker.py --rp_serve_api
Bei der Interaktion mit der RunPod-API können Sie diese Bibliothek verwenden, um Anfragen an die API zu stellen.
import runpodrunpod.api_key = "your_runpod_api_key_found_under_settings"
Sie können mit RunPod-Endpunkten über eine run
oder run_sync
-Methode interagieren.
endpoint = runpod.Endpoint("ENDPOINT_ID")run_request = endpoint.run( {"your_model_input_key": "your_model_input_value"} )# Überprüfen Sie den Status der Endpunktausführungsanforderungprint(run_request.status())# Rufen Sie die Ausgabe der Endpunktausführungsanforderung ab und blockieren Sie sie, bis die Endpunktausführung abgeschlossen ist.print(run_request.output())
endpoint = runpod.Endpoint("ENDPOINT_ID")run_request = endpoint.run_sync( {"your_model_input_key": "your_model_input_value"} )# Gibt die Auftragsergebnisse zurück, wenn der Vorgang innerhalb von 90 Sekunden abgeschlossen wurde. Andernfalls wird der Auftragsstatus zurückgegeben.print(run_request)
import runpodrunpod.api_key = "your_runpod_api_key_found_under_settings"# Alle meine Podspods abrufen = runpod.get_pods()# Einen bestimmten Podpod abrufen = runpod.get_pod(pod.id)# Einen Podpod erstellen = runpod.create_pod("test", "runpod/stack ", "NVIDIA GeForce RTX 3070")# Stoppen Sie die podrunpod.stop_pod(pod.id)# Fortsetzen des podrunpod.resume_pod(pod.id)# Beenden des podrunpod.terminate_pod(pod.id)
.├── docs # Dokumentation├── Beispiele # Beispiele├── runpod # Paketquellcode│ ├── api_wrapper # Sprachbibliothek – API (GraphQL)│ ├── cli # Befehlszeilenschnittstellenfunktionen│ ├── endpoint # Sprachbibliothek - Endpunkte│ └── serverlos # SDK – Serverless Worker└── Tests # Pakettests
Wir freuen uns sowohl über Pull-Requests als auch über Issues auf GitHub. Fehlerbehebungen und neue Funktionen sind erwünscht, aber bitte lesen Sie zuerst unseren Beitragsleitfaden.