es dev stack
v1.2.1
حل محلي محلي لنشر التطبيقات التي تدعم وحدة معالجة الرسومات في الحاويات
مشاركة المدونة مع تفاصيل النشر:
http://www.emergingstack.com/2016/01/10/Nvidia-GPU-plus-CoreOS-plus-Docker-plus-TensorFlow.html
صورة تثبيت برامج تشغيل Nvidia
$ cd es-dev-stack/corenvidiadrivers
$ docker build -t cuda .
صورة TensorFlow التي تدعم وحدة معالجة الرسومات
$ cd es-dev-stack/tflowgpu
$ docker build -t tflowgpu .
المرحلة 1 - تثبيت برامج تشغيل Nvidia وتسجيل أجهزة GPU (مرة واحدة)
# docker run -it --privileged cuda
# ./mkdevs.sh
المرحلة 2 - حاوية TensorFlow Docker مع أجهزة GPU المعينة
$ docker run --device /dev/nvidia0:/dev/nvidia0 --device /dev/nvidia1:/dev/nvidia1 --device /dev/nvidiactl:/dev/nvidiactl --device /dev/nvidia-uvm:/dev/nvidia-uvm -it -p 8888:8888 --privileged tflowgpu
$ docker exec -it {container ID} /bin/bash
من داخل حاوية التشغيل:
$ watch nvidia-smi
هذا الحل مستوحى من بعض مصادر المجتمع. شكرا ل؛
إعداد برنامج تشغيل Nvidia عبر Docker - Joshua Kolden [email protected]
دفتر ملاحظات ConvNet التجريبي - إدوارد بانر [email protected]