es dev stack
v1.2.1
Eine lokale Bare-Metal-Lösung für die Bereitstellung GPU-gestützter Anwendungen in Containern
Blogbeitrag mit Bereitstellungsdetails:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Nvidia-Treiberinstallationsbild
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
GPU-fähiges TensorFlow-Image
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
Stufe 1 – Nvidia-Treiber installieren und GPU-Geräte registrieren (einmalig)
# docker run -it --privileged cuda
# ./mkdevs.sh
Stufe 2 – TensorFlow Docker Container mit zugeordneten GPU-Geräten
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
Aus dem laufenden Container heraus:
$ watch nvidia-smi
Diese Lösung wurde von einigen Community-Quellen inspiriert. Dank;
Einrichtung des Nvidia-Treibers über Docker – Joshua Kolden [email protected]
ConvNet-Demonotizbuch – Edward Banner [email protected]