Локальное, «голое железо» решение для развертывания приложений на базе графических процессоров в контейнерах.
Сообщение в блоге с подробностями развертывания:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Установочный образ драйверов Nvidia
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
Изображение TensorFlow с поддержкой графического процессора
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
Этап 1. Установите драйверы Nvidia и зарегистрируйте устройства графического процессора (однократно)
# docker run -it --privileged cuda
# ./mkdevs.sh
Этап 2 — Docker-контейнер TensorFlow с сопоставленными графическими устройствами
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
Из работающего контейнера:
$ watch nvidia-smi
Это решение основано на нескольких источниках сообщества. Благодаря;
Настройка драйвера Nvidia через Docker — Джошуа Колден [email protected]
Демо-блокнот ConvNet — Эдвард Баннер [email protected]