picoGPT
1.0.0
منشور المدونة المصاحب: GPT في 60 سطرًا من Numpy
لقد رأيت openai/gpt-2.
لقد رأيت karpathy/minGPT.
لقد رأيت حتى الكارباتي/nanoGPT!
ولكن هل رأيت picoGPT؟؟!
يعد picoGPT
تطبيقًا صغيرًا وبسيطًا بشكل غير ضروري لـ GPT-2 في NumPy العادي. يتكون رمز المرور الأمامي بالكامل من 40 سطرًا من التعليمات البرمجية.
مميزات بيكوGPT:
gpt2.py
✅ gpt2_pico.py
تحليل سريع لكل ملف من الملفات:
encoder.py
على رمز BPE Tokenizer الخاص بـ OpenAI، والذي تم أخذه مباشرةً من مستودع gpt-2 الخاص بهم.utils.py
على التعليمات البرمجية لتنزيل وتحميل أوزان نموذج GPT-2 والرمز المميز والمعلمات الفائقة.gpt2.py
على نموذج GPT الفعلي ورمز الإنشاء الذي يمكننا تشغيله كبرنامج نصي بيثون.gpt2_pico.py
هو نفس gpt2.py
، ولكن بعدد أقل من أسطر التعليمات البرمجية. لماذا؟ لماذا لا؟؟. pip install -r requirements.txt
تم اختباره على Python 3.9.10
.
python gpt2.py " Alan Turing theorized that computers would one day become "
الذي يولد
the most powerful machines on the planet.
The computer is a machine that can perform complex calculations, and it can perform these calculations in a way that is very similar to the human brain.
يمكنك أيضًا التحكم في عدد الرموز المميزة التي سيتم إنشاؤها، وحجم النموذج (واحد من ["124M", "355M", "774M", "1558M"]
)، والدليل لحفظ النماذج:
python gpt2.py
" Alan Turing theorized that computers would one day become "
--n_tokens_to_generate 40
--model_size " 124M "
--models_dir " models "