Статус: Архив (код предоставляется как есть, обновлений не ожидается)
Код и модели из статьи «Языковые модели — это многозадачные обучающиеся без присмотра».
Вы можете прочитать о GPT-2 и его поэтапном выпуске в нашем оригинальном сообщении в блоге, последующем сообщении через 6 месяцев и последнем сообщении.
Мы также выпустили набор данных для исследователей, чтобы изучить их поведение.
* Обратите внимание, что исходное количество параметров было неправильным из-за ошибки (в наших предыдущих сообщениях в блоге и статье). Таким образом, вы, возможно, видели маленький размер, называемый 117M, и средний размер, называемый 345M.
Этот репозиторий призван стать отправной точкой для исследователей и инженеров для экспериментов с GPT-2.
Базовую информацию см. в нашей карточке модели.
Пожалуйста, дайте нам знать, если вы проводите интересные исследования или работаете над применением GPT-2! Мы особенно заинтересованы в том, чтобы услышать мнение тех, кто учится, и, возможно, работать с ними.
См. DEVELOPERS.md
См. CONTRIBUTORS.md
Пожалуйста, используйте следующую запись bibtex:
@article{radford2019language,
title={Language Models are Unsupervised Multitask Learners},
author={Radford, Alec and Wu, Jeff and Child, Rewon and Luan, David and Amodei, Dario and Sutskever, Ilya},
year={2019}
}
Мы можем выпустить код для оценки моделей на различных тестах.
Мы все еще рассматриваем выпуск более крупных моделей.
Модифицированный Массачусетский технологический институт