Lanzamiento de investigación oficial para los modelos CodeT5 y CodeT5+ para comprensión y generación de código de Salesforce Research, que se presentan en los siguientes artículos:
Título : CodeT5+: Modelos de lenguaje grande de código abierto para la comprensión y generación de código
Autores : Yue Wang*, Hung Le*, Akhilesh Deepak Gotmare, Nghi DQ Bui, Junnan Li, Steven CH Hoi (* indica contribución igual)
Título : CodeT5: Modelos codificadores-decodificadores unificados previamente entrenados y con reconocimiento de identificadores para la comprensión y generación de códigos
Autores : Yue Wang, Weishi Wang, Shafiq Joty, Steven CH Hoi
En la práctica, los modelos CodeT5 y CodeT5+ se pueden implementar como un asistente de codificación impulsado por IA para aumentar la productividad de los desarrolladores de software. En Salesforce, creamos una demostración de asistente de codificación de IA utilizando CodeT5 como complemento de VS Code para proporcionar tres capacidades:
mayo 2023
¡Se lanzan el papel y los modelos CodeT5+ !
papel | código | modelo | blog
septiembre de 2022
¡Nuestro artículo CodeRL ha sido aceptado en NeurIPS 2022!
papel | código | blog
julio 2022
Lanzamos dos puntos de control CodeT5 de gran tamaño en HuggingFace: Salesforce/codet5-large y Salesforce/codet5-large-ntp-py, que se presentan en el documento CodeRL.
octubre de 2021
Publicamos puntos de control ajustados para todas las tareas posteriores cubiertas en el documento. Además, lanzamos un punto de control ajustado basado en CodeT5 (Salesforce/codet5-base-multi-sum) para el resumen de código multilingüe.
septiembre de 2021
¡Se acepta el papel CodeT5 en EMNLP 2021 y se publican los modelos!
papel | código | modelo | tarjeta modelo | blog
Si encuentra que este código es útil para su investigación, considere citar:
@inproceedings{
wang2021codet5,
title={CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation},
author={Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi},
booktitle={EMNLP},
year={2021},
}
@inproceedings{
le2022coderl,
title={CodeRL: Mastering Code Generation through Pretrained Models and Deep Reinforcement Learning},
author={Le, Hung and Wang, Yue and Gotmare, Akhilesh Deepak and Savarese, Silvio and Hoi, Steven C. H.},
booktitle={NeurIPS},
year={2022}
}
@article{
wang2023codet5plus,
title={CodeT5+: Open Code Large Language Models for Code Understanding and Generation},
author={Wang, Yue and Le, Hung and Gotmare, Akhilesh Deepak and Bui, Nghi D.Q. and Li, Junnan and Hoi, Steven C. H.},
journal={arXiv preprint},
year={2023}
}
El código se publica bajo la licencia BSD-3 (consulte LICENSE.txt
para obtener más detalles), pero también solicitamos a los usuarios que respeten lo siguiente:
Este software no debe utilizarse para promover ni beneficiarse de:
violencia, odio y división,
destrucción ambiental,
abuso de los derechos humanos, o
la destrucción de la salud física y mental de las personas.
Alentamos a los usuarios de este software a que nos informen sobre las aplicaciones en las que lo están utilizando enviando un correo electrónico a [email protected] y a utilizar la documentación adecuada al desarrollar aplicaciones de alto riesgo de este modelo.
Cree un problema de GitHub si tiene alguna pregunta, sugerencia, solicitud o informe de error. ¡Damos la bienvenida a las relaciones públicas!