Dieses Projekt ist eine einzigartige Demonstration der Fähigkeiten von PyTorch und wurde für die PyTorch-Konferenz 2024 erstellt. Es kombiniert Computer Vision und Audiosynthese, um melodische Klänge basierend auf Eingabebildern zu erzeugen. Die Anwendung verwendet ein neuronales PyTorch-Netzwerk, um Bilder zu analysieren und Merkmale zu extrahieren, die dann zur Erstellung abwechslungsreicher Musik im elektronischen Stil verwendet werden. Dieses Cloud-native Open-Source-Projekt demonstriert die Leistungsfähigkeit des maschinellen Lernens in kreativen Anwendungen.
Klonen Sie das Repository:
git clone https://github.com/onlydole/pytorch-keynote-2024.git
cd pytorch-keynote-2024
Erstellen Sie den Docker-Container und führen Sie ihn aus:
docker compose up --build
Öffnen Sie Ihren Webbrowser und navigieren Sie zu http://localhost:8080
Wenn Sie keinen Kubernetes-Cluster haben, können Sie mit Kind einen lokal erstellen:
kind create cluster --config cluster.yml
Wenden Sie die Kubernetes-Konfigurationen an:
kubectl apply -f kubernetes/
Greifen Sie auf die Anwendung zu:
Für Art: Verwenden Sie die Portweiterleitung, um auf den Dienst zuzugreifen
kubectl port-forward service/pytorch-music-service 8080:8080
Öffnen Sie Ihren Webbrowser und navigieren Sie zu http://localhost:8080
startup.sh
: Skript zum Starten der Anwendungshutdown.sh
: Skript zum Herunterfahren der Anwendung Wir freuen uns über Beiträge! Bitte senden Sie gerne einen Pull Request.
Dieses Projekt verwendet GitHub Actions zum Erstellen und Veröffentlichen des Container-Images. Sie können den neuesten Laufstatus mithilfe der Abzeichen oben in dieser README-Datei anzeigen.
Dieses Projekt ist unter der Apache-Lizenz 2.0 lizenziert. Einzelheiten finden Sie in der LICENSE-Datei.