Kubeflow ist ein Toolkit für maschinelles Lernen (ML), das darauf abzielt, die Bereitstellung von ML-Workflows auf Kubernetes einfach, portierbar und skalierbar zu machen.
Kubeflow-Pipelines sind wiederverwendbare End-to-End-ML-Workflows, die mit dem Kubeflow Pipelines SDK erstellt wurden.
Der Kubeflow-Pipeline-Dienst verfolgt die folgenden Ziele:
Kubeflow Pipelines können als Teil der Kubeflow-Plattform installiert werden. Alternativ können Sie Kubeflow Pipelines als eigenständigen Dienst bereitstellen.
Die Docker-Containerlaufzeit ist auf Kubernetes 1.20+ veraltet. Kubeflow Pipelines hat ab Kubeflow Pipelines 1.8 standardmäßig auf die Verwendung von Emissary Executor umgestellt. Emissary Executor ist unabhängig von der Container-Laufzeit, was bedeutet, dass Sie Kubeflow Pipelines auf einem Kubernetes-Cluster mit beliebigen Container-Laufzeiten ausführen können.
Beginnen Sie mit Ihrer ersten Pipeline und lesen Sie weitere Informationen in der Kubeflow-Pipelines-Übersicht.
Sehen Sie sich die verschiedenen Möglichkeiten an, wie Sie das Kubeflow Pipelines SDK verwenden können.
Informationen zur API-Spezifikation finden Sie im Kubeflow Pipelines API-Dokument.
Konsultieren Sie die Python SDK-Referenzdokumente, wenn Sie Pipelines mit dem Python SDK schreiben.
Bevor Sie mit dem Beitragen zu Kubeflow Pipelines beginnen, lesen Sie die Richtlinien unter „Mitwirken“. Um zu erfahren, wie Sie Kubeflow-Pipelines aus Quellcode erstellen und bereitstellen, lesen Sie das Entwicklerhandbuch.
Das Meeting findet jeden zweiten Mittwoch von 10 bis 11 Uhr (PST) statt. Laden Sie das Meeting direkt in den Kalender ein oder nehmen Sie daran teil
Besprechungsnotizen
#kubeflow-pipelines
Kubeflow-Pipelines nutzen standardmäßig Argo Workflows, um Kubernetes-Ressourcen zu orchestrieren. Die Argo-Community hat uns sehr unterstützt und wir sind sehr dankbar. Darüber hinaus ist auch ein Tekton-Backend verfügbar. Um darauf zuzugreifen, lesen Sie bitte das Kubeflow Pipelines mit Tekton-Repository.