Offizielle Forschungsveröffentlichung für CodeT5- und CodeT5+ -Modelle für Code-Verständnis und -Generierung von Salesforce Research, die in den folgenden Artikeln vorgestellt werden:
Titel : CodeT5+: Open Code Large Language Models für Code-Verständnis und -Generierung
Autoren : Yue Wang*, Hung Le*, Akhilesh Deepak Gotmare, Nghi DQ Bui, Junnan Li, Steven CH Hoi (* zeigt gleichen Beitrag an)
Titel : CodeT5: Kennungsbewusste einheitliche vorab trainierte Encoder-Decoder-Modelle für das Verständnis und die Generierung von Code
Autoren : Yue Wang, Weishi Wang, Shafiq Joty, Steven CH Hoi
In der Praxis können die Modelle CodeT5 und CodeT5+ als KI-gestützter Codierungsassistent eingesetzt werden, um die Produktivität von Softwareentwicklern zu steigern. Bei Salesforce erstellen wir eine Demo des KI-Codierungsassistenten mit CodeT5 als VS-Code-Plugin, um drei Funktionen bereitzustellen:
Mai 2023
CodeT5+ -Papier und -Modelle sind veröffentlicht!
Papier | Code | Modell | Blog
September 2022
Unser CodeRL- Artikel wurde für NeurIPS 2022 angenommen!
Papier | Code | Blog
Juli 2022
Wir veröffentlichen zwei große CodeT5-Kontrollpunkte bei HuggingFace: Salesforce/codet5-large und Salesforce/codet5-large-ntp-py, die im CodeRL-Papier eingeführt werden.
Okt. 2021
Wir veröffentlichen fein abgestimmte Kontrollpunkte für alle im Dokument behandelten nachgelagerten Aufgaben. Darüber hinaus veröffentlichen wir einen auf CodeT5 basierenden, fein abgestimmten Prüfpunkt (Salesforce/codet5-base-multi-sum) für die Zusammenfassung mehrsprachigen Codes.
September 2021
CodeT5- Papier für EMNLP 2021 angenommen und Modelle werden veröffentlicht!
Papier | Code | Modell | Modellkarte | Blog
Wenn Sie feststellen, dass dieser Code für Ihre Recherche nützlich ist, sollten Sie Folgendes zitieren:
@inproceedings{
wang2021codet5,
title={CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation},
author={Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi},
booktitle={EMNLP},
year={2021},
}
@inproceedings{
le2022coderl,
title={CodeRL: Mastering Code Generation through Pretrained Models and Deep Reinforcement Learning},
author={Le, Hung and Wang, Yue and Gotmare, Akhilesh Deepak and Savarese, Silvio and Hoi, Steven C. H.},
booktitle={NeurIPS},
year={2022}
}
@article{
wang2023codet5plus,
title={CodeT5+: Open Code Large Language Models for Code Understanding and Generation},
author={Wang, Yue and Le, Hung and Gotmare, Akhilesh Deepak and Bui, Nghi D.Q. and Li, Junnan and Hoi, Steven C. H.},
journal={arXiv preprint},
year={2023}
}
Der Code wird unter der BSD-3-Lizenz veröffentlicht (Einzelheiten finden Sie in LICENSE.txt
). Wir bitten die Benutzer jedoch auch, Folgendes zu respektieren:
Diese Software sollte nicht verwendet werden, um Folgendes zu fördern oder davon zu profitieren:
Gewalt, Hass und Spaltung,
Umweltzerstörung,
Verletzung der Menschenrechte, oder
die Zerstörung der körperlichen und geistigen Gesundheit der Menschen.
Wir ermutigen Benutzer dieser Software, uns per E-Mail an [email protected] über die Anwendungen zu informieren, in denen sie sie einsetzen, und bei der Entwicklung anspruchsvoller Anwendungen dieses Modells entsprechende Dokumentation zu verwenden.
Bitte erstellen Sie ein GitHub-Problem, wenn Sie Fragen, Vorschläge, Wünsche oder Fehlerberichte haben. Wir freuen uns über PRs!