Publication de recherche officielle pour les modèles CodeT5 et CodeT5+ pour la compréhension et la génération du code de Salesforce Research, qui sont présentés par les articles suivants :
Titre : CodeT5+ : Modèles de langage étendus à code ouvert pour la compréhension et la génération de code
Auteurs : Yue Wang*, Hung Le*, Akhilesh Deepak Gotmare, Nghi DQ Bui, Junnan Li, Steven CH Hoi (* indique une contribution égale)
Titre : CodeT5 : Modèles d'encodeur-décodeur unifiés et pré-entraînés prenant en compte les identifiants pour la compréhension et la génération de code
Auteurs : Yue Wang, Weishi Wang, Shafiq Joty, Steven CH Hoi
En pratique, les modèles CodeT5 et CodeT5+ peuvent être déployés en tant qu'assistant de codage alimenté par l'IA pour augmenter la productivité des développeurs de logiciels. Chez Salesforce, nous construisons une démo d'assistant de codage IA en utilisant CodeT5 comme plugin VS Code pour fournir trois fonctionnalités :
mai 2023
Le papier et les modèles CodeT5+ sont publiés!
papier | codes | modèle | bloguer
septembre 2022
Notre article CodeRL a été accepté à NeurIPS 2022 !
papier | codes | bloguer
juillet 2022
Nous publions deux points de contrôle CodeT5 de grande taille sur HuggingFace : Salesforce/codet5-large et Salesforce/codet5-large-ntp-py, qui sont introduits par l'article CodeRL.
octobre 2021
Nous publions des points de contrôle affinés pour toutes les tâches en aval couvertes dans le document. En outre, nous publions un point de contrôle affiné basé sur CodeT5 (Salesforce/codet5-base-multi-sum) pour la synthèse de code multilingue.
septembre 2021
Le papier CodeT5 accepté à l'EMNLP 2021 et les modèles sont sortis !
papier | codes | modèle | carte modèle | bloguer
Si vous trouvez ce code utile pour votre recherche, pensez à citer :
@inproceedings{
wang2021codet5,
title={CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation},
author={Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi},
booktitle={EMNLP},
year={2021},
}
@inproceedings{
le2022coderl,
title={CodeRL: Mastering Code Generation through Pretrained Models and Deep Reinforcement Learning},
author={Le, Hung and Wang, Yue and Gotmare, Akhilesh Deepak and Savarese, Silvio and Hoi, Steven C. H.},
booktitle={NeurIPS},
year={2022}
}
@article{
wang2023codet5plus,
title={CodeT5+: Open Code Large Language Models for Code Understanding and Generation},
author={Wang, Yue and Le, Hung and Gotmare, Akhilesh Deepak and Bui, Nghi D.Q. and Li, Junnan and Hoi, Steven C. H.},
journal={arXiv preprint},
year={2023}
}
Le code est publié sous la licence BSD-3 (voir LICENSE.txt
pour plus de détails), mais nous demandons également aux utilisateurs de respecter les points suivants :
Ce logiciel ne doit pas être utilisé pour promouvoir ou tirer profit de :
la violence, la haine et la division,
destruction de l'environnement,
violation des droits de l'homme, ou
la destruction de la santé physique et mentale des personnes.
Nous encourageons les utilisateurs de ce logiciel à nous faire part des applications dans lesquelles ils l'utilisent en envoyant un e-mail à [email protected], et à utiliser une documentation appropriée lors du développement d'applications à enjeux élevés de ce modèle.
Veuillez créer un problème GitHub si vous avez des questions, des suggestions, des demandes ou des rapports de bogues. Nous accueillons les PR !