MD Zobaer Hossain, Linfei Zhang, Robert Van Timmeren 및 Ramon Meffert, 2022 년 6 월
이 저장소에는 Groningen University의 2021–2022 Edition of Language Technology Project Course의 코스 프로젝트의 일부로 수행 된 실험, 데이터 처리 및 데이터 분석의 소스 코드가 포함되어 있습니다.
데이터 세트와 관련된 모든 파일은 데이터 세트 폴더에 있습니다. 원래 데이터 세트 파일을 가져 와서 Huggingface DataSet 형식으로 변환했습니다. 모든 데이터 세트 폴더에는 원래 데이터 세트 파일, 분석 노트북 및 데이터 세트 사용 방법을 보여주는 데모 파일이 포함되어 있습니다.
모든 실험 코드는 실험 폴더에 있습니다. 실험을 재현하는 방법에 대한 정보는 해당 폴더의 readme에서 제공됩니다.
모든 방법에 대한 결과는 결과 폴더에서 찾을 수 있습니다. 결과에 대한 정보는 해당 폴더의 readme에서 제공됩니다.
Black, S., G. Leo, P. Wang, C. Leahy 및 S. Biderman (2021, 3 월). GPT-NEO : 메쉬 텐서 플로우를 통한 대규모 자동 회귀 언어 모델링. https://doi.org/105281/zenodo.5297715.
Devlin, J., M.-W. Chang, K. Lee 및 K. Toutanova (2019, 6 월). BERT : 언어 이해를위한 심층 양방향 변압기의 전 훈련. 계산 언어 협회 협회의 북미 챕터 2019 컨퍼런스 : 인간 언어 기술, 1 권 (길고 짧은 논문) , 미니애폴리스, 미네소타, 4171 ~ 4186 쪽. 계산 언어학 협회.
Gao, T., A. Fisch 및 D. Chen (2021, 8 월). 미리 훈련 된 언어 모델을 더 나은 소수의 학습자로 만들었습니다. 컴퓨터 언어 협회 협회 제 59 차 연례 회의 및 자연 언어 처리에 관한 11 차 국제 공동 회의 (Volume 1 : Long Papers) , 온라인, pp. 3816–3830. 계산 언어학 협회.
Liu, Y., M. Ott, N. Goyal, J. du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer 및 V. Stoyanov (2019). Roberta : 강력하게 최적화 된 Bert Pretraining 접근법. CORR ABS/1907.11692 .
Park, J., & Cardie, C. (2014). 온라인 사용자 의견에서 제안에 대한 적절한 지원을 식별합니다. 논쟁 채굴에 관한 첫 번째 워크숍의 절차 , 29–38. https://doi.org/10/gg29gq
Schick, T. 및 H. Schütze (2021). 소수의 샷 텍스트 분류 및 자연 언어 추론을위한 망토 질문 악용. 계산 언어 협회 협회 유럽 장 16 차 회의 절차 : Main Volume , Online, pp. 255–269. 계산 언어학 협회.