es dev stack
v1.2.1
GPU 기반 애플리케이션을 컨테이너에 배포하기 위한 온프레미스 베어메탈 솔루션
배포 세부 정보가 포함된 블로그 게시물:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
Nvidia 드라이버 설치 이미지
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
GPU 지원 TensorFlow 이미지
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
1단계 - Nvidia 드라이버 설치 및 GPU 장치 등록(일회성)
# docker run -it --privileged cuda
# ./mkdevs.sh
2단계 - 매핑된 GPU 장치가 있는 TensorFlow Docker 컨테이너
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
실행 중인 컨테이너 내에서 다음을 수행합니다.
$ watch nvidia-smi
이 솔루션은 몇 가지 커뮤니티 소스에서 영감을 얻었습니다. 덕분에;
Docker를 통한 Nvidia 드라이버 설정 - Joshua Kolden [email protected]
ConvNet 데모 노트 - Edward Banner [email protected]