es dev stack
v1.2.1
GPU を利用したアプリケーションをコンテナにデプロイするためのオンプレミスのベアメタル ソリューション
導入の詳細を記載したブログ投稿:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Nvidia ドライバーのインストール イメージ
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
GPU 対応の TensorFlow イメージ
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
ステージ 1 - Nvidia ドライバーのインストールと GPU デバイスの登録 (1 回限り)
# docker run -it --privileged cuda
# ./mkdevs.sh
ステージ 2 - マップされた GPU デバイスを備えた TensorFlow Docker コンテナ
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
実行中のコンテナ内から:
$ watch nvidia-smi
このソリューションは、いくつかのコミュニティ ソースからインスピレーションを得ています。おかげで;
Docker 経由の Nvidia ドライバーのセットアップ - Joshua Kolden [email protected]
ConvNet デモ ノートブック - エドワード バナー [email protected]