非自己回帰生成の進行状況
2022年
[NAACL] 1 つの参照だけでは不十分: 非自己回帰翻訳のための参照選択による多様な蒸留
[ICML] 非自己回帰機械翻訳用の有向非巡回トランスフォーマー
[arXiv] ニューラル機械翻訳以降の非自己回帰生成に関する調査
[ACL] latent-GLAT: 並列テキスト生成のための潜在変数の概要
[ACL] 非自己回帰モデルを使用したテキスト編集のための模倣学習カリキュラム
[ACL] 低頻度単語の再配布: 非自己回帰翻訳における単一言語データの最大限の活用
[EMNLP] 非自己回帰ニューラル機械翻訳: 明確さへの要求
[EMNLP] 非自己回帰翻訳のための多粒度の最適化
2021年
- [AAAI] レイヤーごとの予測と詳細な監視を備えた非自己回帰翻訳
- [arXiv] MvSR-NAT: 非自己回帰機械翻訳のためのマルチビュー サブセット正則化
- [CL] 非自己回帰ニューラル機械翻訳のためのシーケンスレベルのトレーニング
- [EMNLP] 非自動回帰テキスト スタイル転送の探索
- [EMNLP] 非自己回帰ニューラル機械翻訳の書き換え方法の学習
- [EMNLP] AligNART: アライメントの推定と翻訳を共同学習することによる非自己回帰ニューラル機械翻訳
- [ICML] 非自己回帰機械翻訳のための順序に依存しないクロス エントロピー
- [ICML] BANG: 大規模な事前トレーニングによる自己回帰生成と非自己回帰生成の橋渡し
- [ACL] 低頻度単語の活性化: 非自己回帰翻訳で並列データを最大限に活用する
- [ACL] 非自己回帰翻訳のためのプログレッシブ多粒度トレーニング
- [ACL] GLAT: 非自己回帰ニューラル機械翻訳用の Glancing Transformer
- [ACL] 非自己回帰生成のための POS 制約付き並列デコーディング
- [ACL の調査結果] 完全に非自己回帰的なニューラル機械翻訳: 裏技
- [ACL SRW] 非自己回帰ニューラル機械翻訳に摂動長さを考慮した位置エンコーディングを使用する
- [EACL] ニューラル機械翻訳のための構文構造と意味構造を備えた非自己回帰トランスフォーマーの強化
- [EACL] 事前トレーニング済み言語モデルによる非自己回帰テキスト生成
- [NAACL] 構成タスク指向ダイアログの非自己回帰セマンティック解析
- [NAACL] ターゲット カテゴリカル コードの学習による非自己回帰翻訳
- [NAACL] 非自己回帰機械翻訳のための共有エンコーダを使用したマルチタスク学習
- [ICLR] 非自己回帰翻訳における語彙選択の理解と改善
- [AAAI] 並べ替え情報による非自己回帰ニューラル機械翻訳デコードのガイド
2020年
- [arXiv] 聞いて足りない文字を埋める: 音声認識用の非自己回帰トランスフォーマー
- [arXiv] 非自己回帰ニューラル対話生成
- [arXiv] 非自己回帰機械翻訳の流暢性の向上
- [arXiv] 半自己回帰トレーニングによりマスク予測デコーディングが向上
- [arXiv] LAVA NAT: ルックアラウンド デコードと語彙注意を備えた非自己回帰変換モデル
- [IJCAI] 非自己回帰ニューラル機械翻訳のためのタスクレベルのカリキュラム学習
- [COLING] 非自己回帰翻訳のためのコンテキストを意識したクロスアテンション
- [COLING] セルフレビューメカニズムを備えた条件付きマスク翻訳モデルへの連続情報の注入
- [NeurIPS] アダプターを使用した並列シーケンス デコードへの BERT の組み込み
- [EMNLP] 潜在アライメントを使用した非自己回帰機械翻訳
- [EMNLP] 非自己回帰ニューラル機械翻訳のための連続空間での反復改良
- [EMNLP] SlotRefine: 共同意図の検出とスロット充填のための高速非自己回帰モデル
- [INTERSPEECH] マスク CTC: CTC とマスク予測を使用した非自己回帰エンドツーエンド ASR
- [INTERSPEECH] エンドツーエンドの自動音声認識のための挿入ベースのモデリング
- [ACL] 非自己回帰ニューラル機械翻訳のマルチモダリティ エラーから回復する方法を学習する
- [ACL] 非自己回帰ニューラル機械翻訳のための共同マスクされたシーケンス間モデル
- [ACL] ENGINE: 非自己回帰機械翻訳のためのエネルギーベースの推論ネットワーク
- [ACL] 単一言語データによる非自己回帰ニューラル機械翻訳の改善
- [ACL] シーケンス生成のための非自己回帰モデルの研究
- [ICML] 非自己回帰ニューラルテキスト読み上げ
- [ICML] 非自己回帰機械翻訳のためのアライメントされたクロスエントロピー
- [ICML] 解きほぐされたコンテキストトランスフォーマーを使用した並列機械翻訳
- [ICML] Imputer: 代入と動的計画法によるシーケンス モデリング
- [ICML] 非自己回帰条件付きシーケンス生成への EM アプローチ
- [ICLR] 非自己回帰機械翻訳における知識の蒸留を理解する
- [AAAI] 非自己回帰ニューラル機械翻訳の Bag-of-Ngram の差を最小限に抑える
- [AAAI] 事後デルタを使用した決定論的推論による潜在変数非自己回帰ニューラル機械翻訳
- [AAAI] 非自己回帰ニューラル機械翻訳のカリキュラム学習による微調整
2019年
- [arXiv] 位置学習による非自己回帰トランスフォーマー
- [NeurIPS] レーベンシュタイントランスフォーマー
- [NeurIPS] シーケンス モデルの高速構造化デコーディング
- [NeurIPS] FastSpeech: 高速、堅牢、制御可能なテキスト読み上げ
- [EMNLP] Mask-Predict: 条件付きマスク言語モデルの並列デコード
- [EMNLP] FlowSeq: 生成フローによる非自己回帰条件付きシーケンス生成
- [EMNLP] 非自己回帰機械翻訳のためのヒントベースのトレーニング
- [ACL] 非自己回帰ニューラル機械翻訳のための連続情報の取得
- [ACL] 非自己回帰ニューラル機械翻訳のための模倣学習
- [AAAI] 補助正則化を使用した非自己回帰機械翻訳
- [AAAI] 強化されたデコーダー入力を備えた非自己回帰ニューラル機械翻訳
2018年
- [ICML] 離散潜在変数を使用したシーケンス モデルでの高速デコード
- [EMNLP] 反復改良による決定論的非自己回帰ニューラル シーケンス モデリング
- [EMNLP] コネクショニスト時間分類を使用したエンドツーエンドの非自己回帰ニューラル機械翻訳
- [ICLR] 非自己回帰ニューラル機械翻訳
接触
ワン・チャンハン ([email protected])