مستودع لتشغيل GPT-J-6B على أنظمة vram منخفضة باستخدام كل من ذاكرة الوصول العشوائي وvram والذاكرة المثبتة.
الاستخدام - تثبيت النقطة git+https://github.com/finetuneanon/transformers@gpt-neo-localattention3
استخدم الرابط - https://drive.google.com/file/d/1tboTvohQifN6f1JiSV8hnciyNKvj9pvm/view?usp=sharing لتنزيل النموذج الذي تم حفظه كما هو موضح هنا - https://github.com/arrmansa/ Saving-and -تحميل-نماذج-كبيرة-pytorch
رام 16 جيجا ddr4 . وحدة معالجة الرسومات 1070 8 جيجابايت.
23 كتلة على ذاكرة الوصول العشوائي (ram_blocks = 23) منها 18 موجودة على الذاكرة المشتركة/المثبتة (max_shared_ram_blocks = 18).
يستغرق التشغيل الفردي للنموذج (المدخلات) 6.5 ثانية.
35 ثانية لإنشاء 25 رمزًا في سياق 2000. (1.4 ثانية/رمز)
رام 16 جيجا ddr4 . وحدة معالجة الرسومات 1060 6 جيجابايت.
26 كتلة على ذاكرة الوصول العشوائي (ram_blocks = 26) منها 18 موجودة على الذاكرة المشتركة/المثبتة (max_shared_ram_blocks = 18).
40 ثانية لإنشاء 25 رمزًا في سياق 2000. (1.6 ثانية/رمز)