es dev stack
v1.2.1
Uma solução bare-metal local para implantação de aplicativos baseados em GPU em contêineres
Postagem no blog com detalhes de implantação:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Imagem de instalação dos drivers Nvidia
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
Imagem do TensorFlow habilitada para GPU
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
Estágio 1 - Instalar drivers Nvidia e registrar dispositivos GPU (uma vez)
# docker run -it --privileged cuda
# ./mkdevs.sh
Estágio 2: TensorFlow Docker Container com dispositivos GPU mapeados
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
De dentro do contêiner em execução:
$ watch nvidia-smi
Esta solução se inspira em algumas fontes da comunidade. Obrigado a;
Configuração do driver Nvidia via Docker - Joshua Kolden [email protected]
Caderno de demonstração ConvNet - Edward Banner [email protected]