โปรเจ็กต์นี้เป็นการสาธิตความสามารถของ PyTorch ที่ไม่เหมือนใคร ซึ่งสร้างขึ้นสำหรับการประชุม PyTorch Conference 2024 โดยผสมผสานการมองเห็นของคอมพิวเตอร์และการสังเคราะห์เสียงเพื่อสร้างเสียงอันไพเราะตามภาพที่อินพุต แอปพลิเคชั่นนี้ใช้โครงข่ายประสาทเทียม PyTorch เพื่อวิเคราะห์รูปภาพและแยกคุณสมบัติต่างๆ ซึ่งจากนั้นจะใช้เพื่อสร้างเพลงสไตล์อิเล็กทรอนิกส์ที่หลากหลาย โปรเจ็กต์โอเพ่นซอร์สที่เนทีฟบนคลาวด์นี้แสดงให้เห็นถึงพลังของการเรียนรู้ของเครื่องในแอปพลิเคชันเชิงสร้างสรรค์
โคลนที่เก็บ:
git clone https://github.com/onlydole/pytorch-keynote-2024.git
cd pytorch-keynote-2024
สร้างและรันคอนเทนเนอร์ Docker:
docker compose up --build
เปิดเว็บเบราว์เซอร์ของคุณแล้วไปที่ http://localhost:8080
หากคุณไม่มีคลัสเตอร์ Kubernetes คุณสามารถใช้ Kind เพื่อสร้างคลัสเตอร์ในเครื่องได้:
kind create cluster --config cluster.yml
ใช้การกำหนดค่า Kubernetes:
kubectl apply -f kubernetes/
เข้าถึงแอปพลิเคชัน:
สำหรับประเภท: ใช้การส่งต่อพอร์ตเพื่อเข้าถึงบริการ
kubectl port-forward service/pytorch-music-service 8080:8080
เปิดเว็บเบราว์เซอร์ของคุณแล้วไปที่ http://localhost:8080
startup.sh
: สคริปต์เพื่อเริ่มแอปพลิเคชันshutdown.sh
: สคริปต์เพื่อปิดแอปพลิเคชัน เรายินดีต้อนรับการมีส่วนร่วม! โปรดส่งคำขอดึง
โปรเจ็กต์นี้ใช้ GitHub Actions เพื่อสร้างและเผยแพร่อิมเมจคอนเทนเนอร์ คุณสามารถดูสถานะการทำงานล่าสุดได้โดยใช้ป้ายที่ด้านบนของ README นี้
โครงการนี้ได้รับอนุญาตภายใต้ Apache License 2.0 ดูไฟล์ใบอนุญาตสำหรับรายละเอียด