Status: Arsip (kode disediakan apa adanya, tidak ada pembaruan yang diharapkan)
Kode dan model dari makalah "Model Bahasa adalah Pembelajar Multitask Tanpa Pengawasan".
Anda dapat membaca tentang GPT-2 dan rilis bertahapnya di postingan blog asli kami, postingan tindak lanjut 6 bulan, dan postingan terakhir.
Kami juga telah merilis kumpulan data bagi para peneliti untuk mempelajari perilaku mereka.
* Perhatikan bahwa jumlah parameter asli kami salah karena kesalahan (dalam postingan blog dan makalah kami sebelumnya). Jadi, Anda mungkin pernah melihat yang kecil disebut 117M dan sedang disebut 345M.
Repositori ini dimaksudkan sebagai titik awal bagi para peneliti dan insinyur untuk bereksperimen dengan GPT-2.
Untuk informasi dasar, lihat kartu model kami.
Harap beri tahu kami jika Anda sedang melakukan penelitian menarik atau mengerjakan aplikasi GPT-2! Kami khususnya tertarik untuk mendengar dan berpotensi bekerja dengan mereka yang sedang belajar
Lihat DEVELOPER.md
Lihat KONTRIBUTOR.md
Silakan gunakan entri bibtex berikut:
@article{radford2019language,
title={Language Models are Unsupervised Multitask Learners},
author={Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya},
year={2019}
}
Kami mungkin merilis kode untuk mengevaluasi model pada berbagai tolok ukur.
Kami masih mempertimbangkan peluncuran model yang lebih besar.
MIT yang dimodifikasi