MD Zobaer Hossain, Linfei Zhang, Robert Van Timmeren y Ramon Meffert, junio de 2022
Este repositorio contiene el código fuente para los experimentos, procesamiento de datos y análisis de datos realizado como parte de nuestro proyecto del curso para la edición 2021–2022 del curso del Proyecto de Tecnología del Lenguaje en la Universidad de Groningen.
Todos los archivos relacionados con los conjuntos de datos se encuentran en la carpeta de conjuntos de datos. Hemos tomado los archivos del conjunto de datos originales y los transformamos en el formato de conjunto de datos Huggingface. Todas las carpetas del conjunto de datos contienen los archivos del conjunto de datos originales, un cuaderno de análisis y un archivo de demostración que muestra cómo usa el conjunto de datos.
Todo el código para experimentos se encuentra en la carpeta de experimentos. La información sobre cómo reproducir los experimentos está disponible en el ReadMe en esa carpeta.
Los resultados para todos los métodos se pueden encontrar en la carpeta de resultados. La información sobre los resultados está disponible en el ReadMe en esa carpeta.
Black, S., G. Leo, P. Wang, C. Leahy y S. Biderman (2021, marzo). GPT-NEO: modelado de lenguaje autorregresivo a gran escala con flujo de tensor de malla. https://doi.org/105281/zenodo.5297715.
Devlin, J., M.-W. Chang, K. Lee y K. Toutanova (2019, junio). Bert: Precedring de transformadores bidireccionales profundos para la comprensión del lenguaje. En Actas de la Conferencia de 2019 del Capítulo de América del Norte de la Asociación de Lingüística Computacional: Tecnologías de lenguaje humano, Volumen 1 (documentos largos y cortos) , Minneapolis, Minnesota, pp. 4171–4186. Asociación de Lingüística Computacional.
Gao, T., A. Fisch y D. Chen (2021, agosto). Hacer que los modelos de lenguaje previamente entrenados sean mejores estudiantes de pocos disparos. En Actas de la 59ª Reunión Anual de la Asociación para la Lingüística Computacional y la 11ª Conferencia Internacional Conjunta sobre Procesamiento del Lenguaje Natural (Volumen 1: Long Papers) , Online, pp. 3816–3830. Asociación de Lingüística Computacional.
Liu, Y., M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer y V. Stoyanov (2019). Roberta: un enfoque de pre -proyenamiento de Bert con sólidamente optimizado. Corr ABS/1907.11692 .
Park, J. y Cardie, C. (2014). Identificar el apoyo apropiado para las propuestas en los comentarios de los usuarios en línea. Actas del primer taller sobre la minería de argumentación , 29–38. https://doi.org/10/gg29gq
Schick, T. y H. Schütze (2021). Explotando preguntas de cloze para clasificación de texto de pocos disparos e inferencia del lenguaje natural. En Actas de la 16ª Conferencia del Capítulo Europeo de la Asociación de Lingüística Computacional: Volumen principal , en línea, pp. 255–269. Asociación de Lingüística Computacional.