MD Zobaer Hossain,Linfei Zhang,Robert Van Timmeren和Ramon Meffert,2022年6月
该存储库包含用于实验,数据处理和数据分析的源代码,作为我们2021 - 2022年在格罗宁根大学语言技术项目课程的课程项目的一部分。
与数据集有关的所有文件都位于数据集文件夹中。我们将原始数据集文件转换为HuggingFace数据集格式。所有数据集文件夹都包含原始数据集文件,一个分析笔记本和演示文件,显示您如何使用数据集。
实验的所有代码都位于实验文件夹中。有关如何重现实验的信息可在该文件夹中的README中可用。
所有方法的结果都可以在结果文件夹中找到。有关结果的信息可在该文件夹中的README中找到。
Black,S.,G。Leo,P。Wang,C。Leahy和S. Biderman(2021年3月)。 GPT-NEO:用网格浓度流进行大规模自回归语言建模。 https://doi.org/105281/Zenodo.5297715。
Devlin,J.,M.-W。 Chang,K。Lee和K. Toutanova(2019年6月)。 BERT:深层双向变压器的培训,以了解语言理解。在计算语言学协会北美分会2019年会议论文集:人类语言技术,第1卷(长篇小说和短篇论文) ,明尼苏达州明尼苏达州,明尼苏达州,第4171-4186页。计算语言学协会。
Gao,T.,A。Fisch和D. Chen(2021年,八月)。使预训练的语言模型更好地学习者。在计算语言学协会和第11国际自然语言处理联合会议(第1卷:长论文)的第59届年会论文集,在线,第3816-3830页。计算语言学协会。
Liu,Y.,M。Ott,N。Goyal,J。Du,M。Joshi,D。Chen,O。Levy,M。Lewis,L。Zettlemoyer和V. Stoyanov(2019)。罗伯塔(Roberta):一种强大的优化BERT预处理方法。 CORR ABS/1907.11692 。
Park,J。和Cardie,C。(2014年)。在线用户评论中确定对主张的适当支持。第一个关于论证挖掘的研讨会论文集,第29-38页。 https://doi.org/10/gg29gq
Schick,T。和H.Schütze(2021)。利用披肩问题来进行几片文本分类和自然语言推断。在计算语言学协会欧洲分会第16届会议论文集:主要卷,在线,第255-269页。计算语言学协会。