es dev stack
v1.2.1
โซลูชัน Bare Metal ภายในองค์กรสำหรับการปรับใช้แอปพลิเคชันที่ขับเคลื่อนด้วย GPU ในคอนเทนเนอร์
โพสต์ในบล็อกพร้อมรายละเอียดการปรับใช้:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
อิมเมจการติดตั้งไดรเวอร์ Nvidia
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
รูปภาพ TensorFlow ที่เปิดใช้งาน GPU
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
ขั้นตอนที่ 1 - ติดตั้งไดรเวอร์ Nvidia และลงทะเบียนอุปกรณ์ GPU (ครั้งเดียว)
# docker run -it --privileged cuda
# ./mkdevs.sh
ด่าน 2 - TensorFlow Docker Container พร้อมอุปกรณ์ GPU ที่แมป
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
จากภายในคอนเทนเนอร์ที่ทำงานอยู่:
$ watch nvidia-smi
โซลูชันนี้ได้รับแรงบันดาลใจจากแหล่งข้อมูลในชุมชนบางแห่ง ขอขอบคุณ;
การตั้งค่าไดรเวอร์ Nvidia ผ่าน Docker - Joshua Kolden [email protected]
สมุดบันทึกสาธิต ConvNet - Edward Banner [email protected]