gpt 2
1.0.0
ステータス:アーカイブ (コードは現状のまま提供され、更新は期待されません)
論文「言語モデルは教師なしマルチタスク学習者」のコードとモデル。
GPT-2 とその段階的リリースについては、元のブログ投稿、6 か月後のフォローアップ投稿、および最後の投稿で読むことができます。
研究者が彼らの行動を研究するためのデータセットもリリースしました。
* (以前のブログ投稿および論文での) エラーにより、元のパラメータ数が間違っていたことに注意してください。したがって、小型は 117M と呼ばれ、中型は 345M と呼ばれるのを見たことがあるかもしれません。
このリポジトリは、研究者やエンジニアが GPT-2 を実験するための出発点となることを目的としています。
基本的な情報については、モデル カードを参照してください。
GPT-2 を使用して興味深い研究を行っている場合、または GPT-2 のアプリケーションに取り組んでいる場合は、ぜひお知らせください。私たちは特に、勉強している人たちからの意見を聞き、一緒に仕事をすることに興味があります。
DEVELOPERS.md を参照してください。
CONTRIBUTORS.md を参照してください。
次の bibtex エントリを使用してください。
@article{radford2019language,
title={Language Models are Unsupervised Multitask Learners},
author={Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya},
year={2019}
}
さまざまなベンチマークでモデルを評価するためのコードをリリースする場合があります。
さらに大型モデルのリリースも検討中です。
修正されたMIT