Transformer Explaner عبارة عن أداة تصور تفاعلية مصممة لمساعدة أي شخص على تعلم كيفية عمل النماذج المستندة إلى Transformer مثل GPT. فهو يشغل نموذج GPT-2 مباشرًا في متصفحك مباشرةً، مما يسمح لك بتجربة النص الخاص بك ومراقبة كيفية عمل المكونات الداخلية وعمليات المحول معًا في الوقت الفعلي للتنبؤ بالرموز المميزة التالية. جرب شرح المحول على http://poloclub.github.io/transformer-explainer وشاهد مقطع فيديو توضيحيًا على YouTube https://youtu.be/ECR4oAwocjs.
محول-شرح.mp4 | |
العرض المباشر | فيديو تجريبي |
شرح المحول: التعلم التفاعلي للنماذج المولدة للنص . إيري تشو، جريس سي كيم، ألكسندر كاربيكوف، أليك هيلبلينج، زيجي جيه وانج، سيونجمين لي، بنجامين هوفر، دوين هورنج تشاو. الملصق، IEEE VIS 2024.
git clone https://github.com/poloclub/transformer-explainer.git
cd transformer-explainer
npm install
npm run dev
ثم، على متصفح الويب الخاص بك، قم بالوصول إلى http://localhost:5173.
تم إنشاء Transformer Explaner بواسطة Aeree Cho، وGrace C. Kim، وAlexander Karpekov، وAlec Helbling، وJay Wang، وSeongmin Lee، وBenjamin Hoover، وPolo Chau في معهد جورجيا للتكنولوجيا.
@article { cho2024transformer ,
title = { Transformer Explainer: Interactive Learning of Text-Generative Models } ,
shorttitle = { Transformer Explainer } ,
author = { Cho, Aeree and Kim, Grace C. and Karpekov, Alexander and Helbling, Alec and Wang, Zijie J. and Lee, Seongmin and Hoover, Benjamin and Chau, Duen Horng } ,
journal = { IEEE VIS } ,
year = { 2024 }
}
البرنامج متاح بموجب ترخيص MIT.
إذا كانت لديك أي أسئلة، فلا تتردد في فتح مشكلة أو الاتصال بـ Aeree Cho أو أي من المساهمين المذكورين أعلاه.