Ce projet est une démonstration unique des capacités de PyTorch, créée pour la conférence PyTorch 2024. Il combine la vision par ordinateur et la synthèse audio pour générer des sons mélodiques basés sur des images d'entrée. L'application utilise un réseau neuronal PyTorch pour analyser les images et extraire des caractéristiques, qui sont ensuite utilisées pour créer une musique variée de style électronique. Ce projet open source cloud natif met en valeur la puissance de l’apprentissage automatique dans les applications créatives.
Clonez le dépôt :
git clone https://github.com/onlydole/pytorch-keynote-2024.git
cd pytorch-keynote-2024
Créez et exécutez le conteneur Docker :
docker compose up --build
Ouvrez votre navigateur Web et accédez à http://localhost:8080
Si vous n'avez pas de cluster Kubernetes, vous pouvez utiliser Kind pour en créer un localement :
kind create cluster --config cluster.yml
Appliquez les configurations Kubernetes :
kubectl apply -f kubernetes/
Accédez à l'application :
Pour Kind : utilisez la redirection de port pour accéder au service
kubectl port-forward service/pytorch-music-service 8080:8080
Ouvrez votre navigateur Web et accédez à http://localhost:8080
startup.sh
: Script pour démarrer l'applicationshutdown.sh
: Script pour arrêter l'application Nous apprécions les contributions ! N'hésitez pas à soumettre une Pull Request.
Ce projet utilise GitHub Actions pour créer et publier l'image du conteneur. Vous pouvez afficher le dernier statut d'exécution à l'aide des badges en haut de ce README.
Ce projet est sous licence Apache License 2.0. Voir le fichier LICENSE pour plus de détails.