MD Zobaer Hossain,Linfei Zhang,Robert Van Timmeren和Ramon Meffert,2022年6月
該存儲庫包含用於實驗,數據處理和數據分析的源代碼,作為我們2021 - 2022年在格羅寧根大學語言技術項目課程的課程項目的一部分。
與數據集有關的所有文件都位於數據集文件夾中。我們將原始數據集文件轉換為HuggingFace數據集格式。所有數據集文件夾都包含原始數據集文件,一個分析筆記本和演示文件,顯示您如何使用數據集。
實驗的所有代碼都位於實驗文件夾中。有關如何重現實驗的信息可在該文件夾中的README中可用。
所有方法的結果都可以在結果文件夾中找到。有關結果的信息可在該文件夾中的README中找到。
Black,S.,G。Leo,P。Wang,C。Leahy和S. Biderman(2021年3月)。 GPT-NEO:用網格濃度流進行大規模自回歸語言建模。 https://doi.org/105281/Zenodo.5297715。
Devlin,J.,M.-W。 Chang,K。Lee和K. Toutanova(2019年6月)。 BERT:深層雙向變壓器的培訓,以了解語言理解。在計算語言學協會北美分會2019年會議論文集:人類語言技術,第1卷(長篇小說和短篇論文) ,明尼蘇達州明尼蘇達州,明尼蘇達州,第4171-4186頁。計算語言學協會。
Gao,T.,A。Fisch和D. Chen(2021年,八月)。使預訓練的語言模型更好地學習者。在計算語言學協會和第11國際自然語言處理聯合會議(第1卷:長論文)的第59屆年會論文集,在線,第3816-3830頁。計算語言學協會。
Liu,Y.,M。Ott,N。Goyal,J。Du,M。Joshi,D。Chen,O。Levy,M。Lewis,L。Zettlemoyer和V. Stoyanov(2019)。羅伯塔(Roberta):一種強大的優化BERT預處理方法。 CORR ABS/1907.11692 。
Park,J。和Cardie,C。(2014年)。在線用戶評論中確定對主張的適當支持。第一個關於論證挖掘的研討會論文集,第29-38頁。 https://doi.org/10/gg29gq
Schick,T。和H.Schütze(2021)。利用披肩問題來進行幾片文本分類和自然語言推斷。在計算語言學協會歐洲分會第16屆會議論文集:主要卷,在線,第255-269頁。計算語言學協會。