MD Zobaer Hossain、Linfei Zhang、Robert Van Timmeren、Ramon Meffert、2022年6月
このリポジトリには、グロニンゲン大学の言語技術プロジェクトコースのコースプロジェクトの一部として実施された実験、データ処理、およびデータ分析のソースコードが含まれています。
データセットに関連するすべてのファイルは、データセットフォルダーにあります。元のデータセットファイルを使用して、それらをHuggingfaceデータセット形式に変換しました。すべてのデータセットフォルダーには、元のデータセットファイル、分析ノートブック、およびデータセットの使用方法を示すデモファイルが含まれています。
実験用のすべてのコードは、実験フォルダーにあります。実験を再現する方法に関する情報は、そのフォルダーのREADMEで利用できます。
すべての方法の結果は、結果フォルダーにあります。結果に関する情報は、そのフォルダーのREADMEで入手できます。
Black、S.、G。Leo、P。Wang、C。Leahy、およびS. Biderman(2021、3月)。 GPT-NEO:メッシュテンソルフローを使用した大規模なオートレーフレンシャルモデリング。 https://doi.org/105281/zenodo.5297715。
Devlin、J.、M.-W。 Chang、K。Lee、およびK. Toutanova(2019年6月)。 BERT:言語理解のための深い双方向変圧器の事前トレーニング。 2019年の計算言語学会協会の北米支部会議の議事録:ヒューマン言語技術、第1巻(ロングペーパーとショートペーパー) 、ミネアポリス、ミネソタ、pp。4171–4186。計算言語学の協会。
Gao、T.、A。Fisch、およびD. Chen(2021年8月)。事前に訓練された言語モデルをより良いショット学習者にする。第59回計算言語学会協会の年次総会および第11回自然言語加工に関する国際合同会議(第1巻:ロングペーパー) 、オンライン、pp。3816–3830。計算言語学の協会。
Liu、Y.、M。Ott、N。Goyal、J。Du、M。Joshi、D。Chen、O。Levy、M。Lewis、L。Zettlemoyer、およびV. Stoyanov(2019)。 Roberta:堅牢に最適化されたBert Pretrainingアプローチ。 Corr abs/1907.11692 。
Park、J。、およびCardie、C。(2014)。オンラインユーザーのコメントにおける提案に対する適切なサポートを特定します。議論採掘に関する最初のワークショップの議事録、29–38。 https://doi.org/10/gg29gq
Schick、T。およびH.Schütze(2021)。少数のショットテキスト分類と自然言語の推論のためのクローズ質問を利用します。計算言語学会協会の欧州支部の第16回会議の議事録:メインボリューム、オンライン、pp。255–269。計算言語学の協会。