TinyGPT
1.0.0
تنفيذ الاستدلال Tiny C++ 11 GPT-2 من البداية، والذي يعتمد بشكل أساسي على مشروع picoGPT.
منشور المدونة المصاحب: اكتب GPT من الصفر (TinyGPT)
Tensor
: فئة Tensor مشابهة للواجهة numpy.Model
: تنفيذ نموذج GPT-2 بالإشارة إلى gpt2_pico.py.Tokenizer
: رمز BPE المميز تمامًا مثل منطق GPT-2 encoder.py. git clone --recurse-submodules https://github.com/keith2018/TinyGPT.git
الموقع الرسمي: مكتبة Intel®-Optimized Math للحوسبة العددية على وحدات المعالجة المركزية ووحدات معالجة الرسومات
python3 tools / download_gpt2_model . py
في حالة النجاح، سترى الملف model_file.data
في الدليل assets/gpt2
mkdir build
cmake -B ./build -DCMAKE_BUILD_TYPE=Release
cmake --build ./build --config Release
سيؤدي هذا إلى إنشاء الملف القابل للتنفيذ ونسخ الأصول إلى الدليل app/bin
، ثم يمكنك تشغيل العرض التوضيحي:
cd app/bin
./TinyGPT_demo
[DEBUG] TIMER TinyGPT::Model::loadModelGPT2: cost: 800 ms
[DEBUG] TIMER TinyGPT::Encoder::getEncoder: cost: 191 ms
INPUT:Alan Turing theorized that computers would one day become
GPT:the most powerful machines on the planet.
INPUT:exit
intel-mkl
https://www.intel.com/content/www/us/en/developer/tools/oneapi/onemkl.htmljson11
https://github.com/dropbox/json11re2
https://github.com/google/re2abseil-cpp
https://github.com/abseil/abseil-cpp هذا الرمز مرخص بموجب ترخيص MIT (انظر الترخيص).