es dev stack
v1.2.1
Une solution sur site et nue pour déployer des applications basées sur GPU dans des conteneurs
Article de blog avec les détails du déploiement :
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Image d'installation des pilotes Nvidia
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
Image TensorFlow compatible GPU
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
Étape 1 - Installer les pilotes Nvidia et enregistrer les périphériques GPU (une seule fois)
# docker run -it --privileged cuda
# ./mkdevs.sh
Étape 2 – Conteneur TensorFlow Docker avec appareils GPU mappés
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
Depuis le conteneur en cours d'exécution :
$ watch nvidia-smi
Cette solution s'inspire de quelques sources communautaires. Grâce à;
Configuration du pilote Nvidia via Docker - Joshua Kolden [email protected]
Carnet de démonstration ConvNet - Edward Banner [email protected]