es dev stack
v1.2.1
用于在容器中部署 GPU 驱动的应用程序的本地裸机解决方案
包含部署详细信息的博客文章:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Nvidia 驱动程序安装映像
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
支持 GPU 的 TensorFlow 图像
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
第 1 阶段 - 安装 Nvidia 驱动程序并注册 GPU 设备(一次性)
# docker run -it --privileged cuda
# ./mkdevs.sh
第 2 阶段 - 具有映射 GPU 设备的 TensorFlow Docker 容器
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
从正在运行的容器内:
$ watch nvidia-smi
该解决方案的灵感来自一些社区资源。由于;
通过 Docker 设置 Nvidia 驱动程序 - Joshua Kolden [email protected]
ConvNet 演示笔记本 - Edward Banner [email protected]