Status: Archiv (Code wird unverändert bereitgestellt, keine Aktualisierungen erwartet)
Code und Modelle aus dem Artikel „Language Models are Unsupervised Multitask Learners“.
Sie können mehr über GPT-2 und seine schrittweise Veröffentlichung in unserem ursprünglichen Blogbeitrag, dem 6-Monats-Folgebeitrag und dem letzten Beitrag lesen.
Wir haben außerdem einen Datensatz veröffentlicht, mit dem Forscher ihr Verhalten untersuchen können.
* Beachten Sie, dass unsere ursprünglichen Parameterzählungen aufgrund eines Fehlers (in unseren vorherigen Blog-Beiträgen und Artikeln) falsch waren. Daher haben Sie vielleicht schon einmal gesehen, dass die Größe „Klein“ als 117M und die Größe „Mittel“ als 345M bezeichnet wird.
Dieses Repository soll als Ausgangspunkt für Forscher und Ingenieure dienen, um mit GPT-2 zu experimentieren.
Grundlegende Informationen finden Sie in unserer Modellkarte.
Bitte teilen Sie uns mit, wenn Sie interessante Forschung mit GPT-2 betreiben oder an Anwendungen von GPT-2 arbeiten! Wir sind besonders daran interessiert, von Studierenden zu hören und möglicherweise mit ihnen zusammenzuarbeiten
Siehe DEVELOPERS.md
Siehe CONTRIBUTORS.md
Bitte verwenden Sie den folgenden Bibtex-Eintrag:
@article{radford2019language,
title={Language Models are Unsupervised Multitask Learners},
author={Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya},
year={2019}
}
Möglicherweise veröffentlichen wir Code zur Bewertung der Modelle anhand verschiedener Benchmarks.
Wir denken immer noch über die Veröffentlichung der größeren Modelle nach.
Modifiziertes MIT