MD Zobaer Hossain, Linfei Zhang, Robert van Timmeren und Ramon Meffert, Juni 2022
Dieses Repository enthält den Quellcode für die Experimente, die Datenverarbeitung und die Datenanalyse, die als Teil unseres Kursprojekts für die Ausgabe 2021–2022 des Sprachtechnologieprojektkurs an der Universität von Groningen durchgeführt wurden.
Alle Dateien, die sich auf die Datensätze beziehen, befinden sich im Datasets -Ordner. Wir haben die ursprünglichen Datensatzdateien aufgenommen und sie in das Dataset -Format von Huggingface -Datendateien umgewandelt. Alle Datensatzordner enthalten die ursprünglichen Datensatzdateien, ein Analyse -Notebook und eine Demo -Datei, die zeigt, wie Sie den Datensatz verwenden.
Der gesamte Code für Experimente befindet sich im Experimentenordner. Informationen zur Reproduktion der Experimente finden Sie in der Readme in diesem Ordner.
Die Ergebnisse für alle Methoden finden Sie im Ergebnisordner der Ergebnisse. Informationen zu den Ergebnissen finden Sie in der Readme in diesem Ordner.
Black, S., G. Leo, P. Wang, C. Leahy und S. Biderman (2021, März). GPT-NEO: Große autoregressive Sprachmodellierung mit Mesh-Tensorflow. https://doi.org/105281/zenodo.5297715.
Devlin, J., M.-W. Chang, K. Lee und K. Toutanova (2019, Juni). Bert: Pre-Training von tiefen bidirektionalen Transformatoren für das Sprachverständnis. In Proceedings of the 2019 Conference des nordamerikanischen Kapitels der Vereinigung für Computer -Linguistik: Human Language Technologies, Band 1 (Long- und Short Papers) , Minneapolis, Minnesota, S. 4171–4186. Assoziation für Computer -Linguistik.
Gao, T., A. Fisch und D. Chen (2021, August). Vorausgebildete Sprachmodelle besser wenige Lernende machen. In Proceedings of the 59. Jahrestagung des Vereins für die Computerlinuistik und der 11. Internationalen gemeinsamen Konferenz zur Verarbeitung natürlicher Sprache (Band 1: Long Papers) , Online, S. 3816–3830. Assoziation für Computer -Linguistik.
Liu, Y., M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer und V. Stoyanov (2019). Roberta: Ein robust optimierter Bert -Vorab -Ansatz. CORBS/1907.11692 .
Park, J. & Cardie, C. (2014). Identifizieren Sie die angemessene Unterstützung für Aussagen in Online -Benutzerkommentaren. Verfahren des ersten Workshops zum Argumentationsabbau , 29–38. https://doi.org/10/gg29gq
Schick, T. und H. Schütze (2021). Nutzung von Lückwechsel für wenige Schuss-Textklassifizierung und Inferenz für natürliche Sprache. In Proceedings of the 16. Konferenz des Europäischen Kapitels des Vereins für Computer -Linguistik: Hauptvolumen , Online, S. 255–269. Assoziation für Computer -Linguistik.