Transformer Explainer ist ein interaktives Visualisierungstool, mit dem jeder lernen kann, wie Transformer-basierte Modelle wie GPT funktionieren. Es führt ein Live-GPT-2-Modell direkt in Ihrem Browser aus, sodass Sie mit Ihrem eigenen Text experimentieren und in Echtzeit beobachten können, wie interne Komponenten und Vorgänge des Transformers zusammenarbeiten, um die nächsten Token vorherzusagen. Probieren Sie Transformer Explainer unter http://poloclub.github.io/transformer-explainer aus und sehen Sie sich ein Demovideo auf YouTube an: https://youtu.be/ECR4oAwocjs.
transformator-explainer.mp4 | |
Live-Demo | Demo-Video |
Transformer Explainer: Interaktives Lernen textgenerativer Modelle . Aeree Cho, Grace C. Kim, Alexander Karpekov, Alec Helbling, Zijie J. Wang, Seongmin Lee, Benjamin Hoover, Duen Horng Chau. Poster, IEEE VIS 2024.
git clone https://github.com/poloclub/transformer-explainer.git
cd transformer-explainer
npm install
npm run dev
Rufen Sie dann in Ihrem Webbrowser http://localhost:5173 auf.
Transformer Explainer wurde von Aeree Cho, Grace C. Kim, Alexander Karpekov, Alec Helbling, Jay Wang, Seongmin Lee, Benjamin Hoover und Polo Chau am Georgia Institute of Technology erstellt.
@article { cho2024transformer ,
title = { Transformer Explainer: Interactive Learning of Text-Generative Models } ,
shorttitle = { Transformer Explainer } ,
author = { Cho, Aeree and Kim, Grace C. and Karpekov, Alexander and Helbling, Alec and Wang, Zijie J. and Lee, Seongmin and Hoover, Benjamin and Chau, Duen Horng } ,
journal = { IEEE VIS } ,
year = { 2024 }
}
Die Software ist unter der MIT-Lizenz erhältlich.
Wenn Sie Fragen haben, können Sie gerne ein Problem eröffnen oder sich an Aeree Cho oder einen der oben aufgeführten Mitwirkenden wenden.