LLM と MLLM の推論能力を解放する方法に関する厳選された論文とリソースのコレクション。
Awesome-Controllable-Diffusionもチェックしてください。
大規模言語モデルの責任者に注目: アンケート。 [コード]
Zifan Zheng、Yezhaohui Wang、Yuxin Huang、Shichao Song、Bo Tang、Feiyu Xiong、Zhiyu Li。プレプリント'24
大規模言語モデルにおける内部一貫性と自己フィードバック: 調査。 [コード]
Xun Liang、Shichao Song、Zifan Zheng、Hanyu Wang、Qingchen Yu、Xunkai Li、Rong-Hua Li、Feiyu Xiong、Zhiyu Li。プレプリント'24
大規模言語モデルの推論を使用したパズル解決: 調査。 [コード]
パナギオティス・ジャディキアログロウ、マリア・リンペライウ、ジョルゴス・フィランドリアノス、ジョルゴス・スタモウ。プレプリント'24
数学的推論のための大規模言語モデル: 進歩と課題。
ジャニス・アン、リシュ・ヴェルマ、レンゼ・ルー、ディ・リュー、ルイ・チャン、ウェンペン・イン。 ACL'24
大規模言語モデルでの推論に向けて: 調査。 [コード]
ジエ・ファン、ケビン・チェン=チャン・チュアン。 ACL'23 の調査結果
言語モデル プロンプトを使用した推論: アンケート。 [コード]
Shuofei Qiao、Yixin Ou、Ningyu Zhang、Xiang Chen、Yunzhi Yao、Shumin Deng、Chuanqi Tan、Fei Huang、Huajun Chen。 ACL'23
↑ トップに戻る ↑
Medprompt から o1 へ: 医療上の困難な問題およびそれ以降の実行時戦略の探求。
ハルシャ・ノリ、臼山直人、ニコラス・キング、スコット・メイヤー・マッキニー、ザビエル・フェルナンデス、シェン・チャン、エリック・ホーヴィッツ。プレプリント'24
CoTするか否か?思考の連鎖は主に数学と記号的推論に役立ちます。
ゼイン・スプレーグ、ファンコン・イン、フアン・ディエゴ・ロドリゲス、ドンウェイ・ジャン、マーニャ・ワドワ、プラサン・シンハル、シンユー・チャオ、シー・イェ、カイル・マホワルド、グレッグ・ダレット。プレプリント'24
LLM は新しい研究アイデアを生み出すことができるか? 100 人以上の NLP 研究者による大規模な人体研究。
シー・チェンレイ、ヤン・ディイー、橋本辰徳。プレプリント'24
トークンバイアスを覗いてみよう: 大規模な言語モデルはまだ真の推論者ではありません。 [コード]
ボーウェン・ジャン、ヤンシンユー・謝、卓群ハオ、シャオメン・ワン、タンウィ・マリック、ウェイジ・J・スー、カミロ・J・テイラー、ダン・ロス。 EMNLP'24
イテレーションヘッド: 思考連鎖のメカニズムの研究
ヴィヴィアン・カバンヌ、シャルル・アルナル、ワシム・ブアズ、アリス・ヤン、フランソワ・シャルトン、ジュリア・ケンペ。 NeurIPS'24
大規模な言語モデルは潜在的にマルチホップ推論を実行しますか?
ヤン・ソヒ、エレナ・グリボフスカヤ、ノラ・カスナー、モル・ジェヴァ、セバスティアン・リーデル。 ACL'24
大規模な言語モデルを使用した推論では、前提順序が重要です。
Xinyun Chen、Ryan A. Chi、Xuezhi Wang、Denny Zhou。 ICML'24
大規模な言語モデルに対する推論ステップの長さの影響。
ミンユ・ジン、チンカイ・ユー、ドン・シュー、ハイヤン・チャオ、ウェンユエ・ファ、ヤンダ・メン、ヨンフェン・チャン、メンナン・ドゥ。 ACL'24 の調査結果
大規模な言語モデルはまだ推論を自己修正できません。
Jie Huang、Xinyun Chen、Swaroop Mishra、Huaixiu Steven Zheng、Adams Wei Yu、Xinying Song、Denny Zhou。 ICLR'24
コードデータはどのトレーニング段階で LLM 推論に役立ちますか?
Yingwei Ma、Yue Liu、Yue Yu、Yuanliang Zhang、Yu Jiang、Changjian Wang、Shanshan Li。 ICLR'24
思考連鎖推論における忠実度の測定。
タメラ・ランハム、アンナ・チェン、アンシュ・ラダクリシュナン、ブノワ・シュタイナー、カーソン・デニソン、ダニー・ヘルナンデス、ダスティン・リー、エシン・ダーマス、エヴァン・ヒュービンガー、ジャクソン・カーニオン、カミーレ・ルコシウテ、カリーナ・グエン、ニュートン・チェン、ニコラス・ジョセフ、ニコラス・シーファー、オリバー・ラウシュ、ロビン・ラーソンサム・マッキャンドリッシュサンディパン・クンドゥ、サウラフ・カダバス、シャノン・ヤン、トーマス・ヘニハン、ティモシー・マックスウェル、ティモシー・テレーン=ロートン、トリスタン・ヒューム、ザック・ハットフィールド=ドッズ、ジャレッド・カプラン、ヤン・ブラウナー、サミュエル・R・ボウマン、イーサン・ペレス。プレプリント'23
信仰と運命: 構成性に関するトランスフォーマーの限界。
ヌーハ・ジリ、シーミン・ルー、メラニー・スラー、シャン・ロレイン・リー、リーウェイ・ジャン、ビル・ユーチェン・リン、ピーター・ウェスト、チャンドラ・バガヴァトゥラ、ローナン・ル・ブラス、ジェナ・D・ファン、ソウミャ・サンヤル、ショーン・ウェレック、シャン・レン、アリソン・エッティンガー、ザイド・ハルチャウイ、チェ・イェジンさん。 NeurIPS'23
言語モデルは常に自分の考えたことを言うわけではありません: 思考連鎖のプロンプトにおける不誠実な説明。 [コード]
マイルズ・ターピン、ジュリアン・マイケル、イーサン・ペレス、サミュエル・R・ボウマン。 NeurIPS'23
推論、幻覚、対話性に関する ChatGPT のマルチタスク、多言語、マルチモーダル評価。
Yejin Bang、Samuel Cahyawijaya、Nayeon Lee、Wenliang Dai、Dan Su、Bryan Wilie、Holy Lovenia、Ziwei Ji、Tiezheng Yu、Willy Chung、Quyet V. Do、Yan Xu、Pascale Fung。 AACL'23
大規模な言語モデルは、無関係なコンテキストによって簡単に気が散ってしまう可能性があります。
フリーダ・シー、シンユン・チェン、カニシカ・ミスラ、ネイサン・スケールズ、デヴィッド・ドーハン、エド・チー、ナサナエル・シャーリ、デニー・チョウ。 ICML'23
よく考えたら、一歩ずつ考えるのはやめましょう!ゼロショット推論におけるバイアスと毒性。
オマール・シャイク、ホンシン・チャン、ウィリアム・ヘルド、マイケル・バーンスタイン、ディイー・ヤン。 ACL'23
思考連鎖プロンプトの理解に向けて: 何が重要なのかについての実証的研究。 [コード]
ボシ・ワン、セウォン・ミン、シャン・デン、ジアミン・シェン、ユー・ウー、ルーク・ゼトルモイヤー、ファン・サン。 ACL'23
大きなベンチのタスクに挑戦し、思考の連鎖でそれらを解決できるかどうか。 [コード]
ミラク・スズガン、ネイサン・スケールズ、ナサナエル・シャーリ、セバスティアン・ゲールマン、イー・テイ、ヒョン・ウォン・チョン、アーカンクシャ・チョードリー、クオック・V・リー、エド・H・チー、デニー・チョウ、ジェイソン・ウェイ。 ACL'23 の調査結果
大規模言語モデルの創発的な能力。 [ブログ]
ジェイソン・ウェイ、イー・テイ、リシ・ボンマサニ、コリン・ラッフェル、バレット・ゾフ、セバスチャン・ボルゴー、ダニ・ヨガタマ、マーテン・ボスマ、デニー・チョウ、ドナルド・メッツラー、エド・H・チー、橋本達規、オリオール・ヴィニャルズ、パーシー・リャン、ジェフ・ディーン、ウィリアム・フェダス。 TMLR'22
言語モデルはコンテキスト内の説明から学習できますか?
アンドリュー・K・ランピネン、イシタ・ダスグプタ、ステファニー・CY・チャン、コリー・マシューソン、マイケル・ヘンリー・テスラー、アントニア・クレスウェル、ジェームズ・L・マクレランド、ジェーン・X・ワン、フェリックス・ヒル。 EMNLP'22
↑ トップに戻る ↑
強化学習による自己修正のための言語モデルのトレーニング。
アヴィラル・クマール、ヴィンセント・ヂュアン、リシャブ・アガルワル、イー・スー、JD・コー・レイエス、アヴィ・シン、ケイト・バウムリ、シャリク・イクバル、コルトン・ビショップ、レベッカ・ロエロフス、レイ・M・チャン、ケイ・マッキニー、ディシャ・シュリヴァスタヴァ、コズミン・パドゥラル、ジョージ・タッカー、ドイナプレカップ、フェリアル・ベバハニ、アレクサンドラファウスト。プレプリント'24
OpenAI o1。
AI チームを開きます。テクニカルレポート'24
エージェント Q: 自律型 AI エージェントのための高度な推論と学習。
プラナフ・プッタ、エドマンド・ミルズ、ナマン・ガーグ、スミート・モトワニ、チェルシー・フィン、ディヴィアンシュ・ガーグ、ラファエル・ラファイロフ。プレプリント'24
DotaMath: コード支援による思考の分解と数学的推論の自己修正。 [コード]
Chengpeng Li、Guanting Dong、Mingfeng Xue、Ru Peng、Xiang Wang、Dayiheng Liu。プレプリント'24
LLM-ARC: 自動推論クリティカルによる LLM の強化。
アディティヤ・カリヤンプール、カイラス・サラヴァナクマール、ビクター・バレス、ジェニファー・チュー=キャロル、デビッド・メルヴィル、デビッド・フェルッチ。プレプリント'24
Q*: 熟考型計画による LLM の複数ステップ推論の改善。
Chaojie Wang、Yanchen Deng、Zhiyi Lv、Shuicheng Yan、An Bo。プレプリント'24
思考のバッファー: 大規模な言語モデルを使用した思考拡張推論。 [コード]
Ling Yang、Zhaochen Yu、Tianjun Zhang、Shiyi Cao、Minkai Xu、Wentao Zhang、Joseph E. Gonzalez、Bin Cui。プレプリント'24
想像力、検索、批判を通じて LLM の自己改善に向けて。
イェ・ティエン、ポン・バオリン、ソン・リンフェン、ジン・リーフェン、ディアン・ユー、ハイタオ・ミー、ドン・ユー。プレプリント'24
セルフプレイの敵対的言語ゲームは LLM 推論を強化します。
チェン・ペンユー、フー・ティアンハオ、ハン・シュー、張志松、ヨン・ダイ、レイ・ハン、ナン・ドゥ。プレプリント'24
正確さを超えた数学的推論の評価。
Shijie Xia、Xuefeng Li、Yixin Liu、Tongshuang Wu、Pengfei Liu。プレプリント'24
優先ツリーを使用した LLM 推論ジェネラリストの進歩。
Lifan Yuan、Ganqu Cui、Hanbin Wang、Ning Ding、Xingyao Wang、Jia Deng、Boji Shan、Huimin Chen、Ruobing Xie、Yankai Lin、Zhenhao Liu、Bowen Zhou、Hao Peng、Zhiyuan Liu、Maosong Sun。プレプリント'24
LLM3: 動作障害推論を使用した大規模言語モデルベースのタスクおよび動作計画。 [コード]
Shu Wang、Muzhi Han、Ziyuan Jiao、Zeyu Zhang、Ying Nian Wu、Song-Chun Zhu、Hangxin Liu。イロス'24
Quiet-STAR: 言語モデルは話す前に考えることを自らに教えることができます。
エリック・ゼリクマン、ジョルジュ・ハリク、イージア・シャオ、ヴァルナ・ジャヤシリ、ニック・ハーバー、ノア・D・グッドマン。プレプリント'24
GLoRe: グローバルおよびローカルの改良により LLM 推論をいつ、どこで、どのように改善するか。
アレックス・ハブリラ、シャラス・ラパルシー、クリストフォラス・ナルムパンティス、ジェーン・ドウィヴェディ=ユ、マクシム・ジュラヴィンスキー、エリック・ハンブロ、ロベルタ・ライルノー。 ICML'24
指示なしの思考連鎖推論。
王雪志、デニー・ジョウ。プレプリント'24
V-STAR: 独学で推論するためのトレーニング検証者。
アリアン・ホセイニ、シンディ・ユアン、ニコライ・マルキン、アーロン・クールヴィル、アレッサンドロ・ソルドーニ、リシャブ・アガルワル。プレプリント'24
InternLM-Math: 検証可能な推論に向けたオープンな数学大規模言語モデル。
Huaiyuan Ying、Shuo Zhang、Linyang Li、Zhejian Zhou、Yunfan Shao、Zhaoye Fei、Yichuan Ma、Jiawei Hon、Kuikun Liu、Ziyi Wang、Yudong Wang、Zijian Wu、Shuaibin Li、Fengzhe Zhou、Hongwei Liu、Songyang Zhang、Wenwei Zhang 、ハン・ヤン、シペン・チウ、ジアユワン、カイ・チェン、ダーファ・リン。プレプリント'24
自己発見: 大規模な言語モデルが推論構造を自己構成します。
ペイ・ジョウ、ジェイ・プジャラ、シャン・レン、シンユン・チェン、ヘン・ツェー・チェン、クオック・V・リー、エド・H・チー、デニー・チョウ、スワループ・ミシュラ、フアイシウ・スティーブン・ジェン。プレプリント'24
DeepSeekMath: オープン言語モデルにおける数学的推論の限界を押し上げる。
Zhihong Shao、Peiyi Wang、Qihao Zhu、Runxin Xu、Junxiao Song、Xiao Bi、Haowei Zhang、Mingchuan Zhang、YK Li、Y. Wu、Daya Guo。プレプリント'24
大規模な言語モデルを使用した K レベル推論。
ヤドン・チャン、シャオグアン・マオ、タオ・ゲー、シュン・ワン、ヤン・シア、マン・ラン、フル・ウェイ。プレプリント'24
抽象化連鎖推論による効率的なツールの使用。
シリン・ガオ、ジェーン・ドウィヴェディ・ユー、ピン・ユー、シャオチン・エレン・タン、ラマカント・パスヌル、オルガ・ゴロヴネワ、コウストゥフ・シンハ、アスリ・チェリキルマズ、アントワーヌ・ボセルット、ティアンルー・ワン。プレプリント'24
インタラクティブなデモンストレーションを通じて言語モデルに自己改善を教える。
シャオ・ユー、ペン・バオリン、ミシェル・ガレー、ガオ・ジャンフェン、周瑜。 NAACL'24
ロジックによる大規模言語モデルにおけるゼロショット思考連鎖推論の強化。 [コード]
Xufeng Zhao、Mengdi Li、Wenhao Lu、Cornelius Weber、Jae Hee Lee、Kun Chu、Stefan Wermter。コリング'24
検証の連鎖により、大規模な言語モデルにおける幻覚が軽減されます。
シェザード・ドゥリアワラ、モジタバ・コメイリ、ジン・シュー、ロベルタ・ライレヌ、シアン・リー、アスリ・チェリキルマズ、ジェイソン・ウェストン。 ACL'24 の調査結果
思考の骨格: 大規模な言語モデルは並列デコードを実行できます。
Xuefei Ning、Zinan Lin、Zouan Zhou、Hhuazhong Yang、Yu Yu Wang。 ICLR'24
質問分解により、モデル生成推論の忠実性が向上します。 [コード]
アンシュ・ラダクリシュナン、カリーナ・グエン、アンナ・チェン、キャロル・チェン、カーソン・デニソン、ダニー・ヘルナンデス、エシン・ダーマス、エヴァン・ヒュービンガー、ジャクソン・カーニオン、カミーレ・ルコシュテ、ニュートン・チェン、ニコラス・ジョセフ、ニコラス・シーファー、オリバー・ラウシュ、サム・マッキャンドリッシュ、シアー・エル・ショーク、タメラランハム、ティム・マクスウェル、ヴェンカテサチャンドラセカラン、ザック・ハットフィールド=ドッズ、ジャレッド・カプラン、ヤン・ブラウナー、サミュエル・R・ボウマン、イーサン・ペレス。プレプリント'23
ステップバイステップで検証してみましょう。
ハンター・ライトマン、ヴィニート・コサラジュ、ユラ・ブルダ、ハリ・エドワーズ、ボーエン・ベイカー、テディ・リー、ジャン・ライク、ジョン・シュルマン、イリヤ・サツケヴァー、カール・コッベ。 ICLR'24
REFINER: 中間表現に関する推論フィードバック。 [プロジェクト] [コード]
デブジット・ポール、メテ・イスマイルザダ、マキシム・ペイラール、ベアトリス・ボルヘス、アントワーヌ・ボセルット、ロバート・ウェスト、ボイ・ファルティングス。 EACL'24
大規模な言語モデルに対する思考連鎖によるアクティブなプロンプト。 [コード]
Shizhe Diao、Pengcheng Wang、Yong Lin、Tong Zhang。 ACL'24
帰納的推論者としての言語モデル。
ヤン・ゾンリン、リー・ドン、シンヤ・ドゥ、ハオ・チェン、エリック・カンブリア、シャオドン・リウ、ジャンフェン・ガオ、フル・ウェイ。 EACL'24
LLM 推論の強化: 強化されたインコンテキスト プルーニングにより、少数ショット学習の限界を押し上げます。
Xijie Huang、Li Lyna Zhang、Kwang-Ting Cheng、Mao Yang。プレプリント'23
Logic-LM: シンボリック ソルバーを使用して大規模な言語モデルを強化し、忠実な論理的推論を実現します。 [コード]
潘梁明、アロン・アルバラク、王信義、王ウィリアム・ヤン。 EMNLP'23 の調査結果
思考の再帰: 言語モデルを使用したマルチコンテキスト推論への分割統治アプローチ。 [コード] [ポスター]
イ・スチャン、キム・ゴンヒ。 ACL'23 の調査結果
言語モデルによる推論は世界モデルによる計画です。
シボ・ハオ、イー・グ、ハオディー・マー、ジョシュア・ジアホア・ホン、ジェン・ワン、デイジー・ジェ・ワン、ジーティン・フー。 EMNLP'23
暗黙の感情を思考連鎖のプロンプトで推論する。 [コード]
ハオ・フェイ、ボボ・リー、チェン・リウ、リドン・ビン、フェイ・リー、タッセン・チュア。 ACL'23
Tree of Thoughts: 大規模な言語モデルを使用した意図的な問題解決。 [コード]
ヤオ・シュンユウ、ディアン・ユー、ジェフリー・チャオ、イザク・シャフラン、トーマス・L・グリフィス、袁操、カルティク・ナラシンハン。 NeurIPS'23
SatLM: 宣言的プロンプトを使用した満足度支援型言語モデル。 [コード]
シイ・イェー、チャオチュー・チェン、イシル・ディリグ、グレッグ・ダレット。 NeurIPS'23
ART: 大規模な言語モデルに対する自動マルチステップ推論とツールの使用。
バルガビ・パランジャペ、スコット・ランドバーグ、サミール・シン、ハンナネ・ハジシルジ、ルーク・ゼトルモイヤー、マルコ・トゥーリオ・リベイロ。プレプリント'23
ラベル付きデータからの思考連鎖による自動プロンプト拡張と選択。 [コード]
カシュン・シュム、シーゼ・ディアオ、トン・チャン。 EMNLP'23 の調査結果
合成プロンプト: 大規模な言語モデルの思考連鎖のデモンストレーションを生成します。
シャオ・ジーホン、ゴン・イェユン、シェン・イェロン、ファン・ミンリー、ナン・ドゥアン、チェン・ウェイジュー。 ICML'23
忠実な思考連鎖推論。
チン・リュー、シュレヤ・ハヴァルダー、アダム・スタイン、リー・チャン、デリップ・ラオ、エリック・ウォン、マリアンナ・アピディアナキ、クリス・カリソン=バーチ。 IJCNLP-AACL'23
検索による再考: 忠実な大規模言語モデル推論。
ハンフェン・ホー、ホンミン・チャン、ダン・ロス。プレプリント'23
LAMBADA: 自然言語での自動推論のための後方連鎖。
セイエド・メヘラン・カゼミ、ナジュン・キム、ディープティ・バティア、シン・シュー、ディーパック・ラマチャンドラン。 ACL'23
知識集約型の複数ステップの質問に対する、思考連鎖推論によるインターリーブ検索。 [コード]
ハーシュ・トリヴェディ、ニランジャン・バラスブラマニアン、トゥシャール・コート、アシシュ・サバルワル。 ACL'23
大規模な言語モデルは、自己検証を備えた推論器です。 [コード]
ウェン・イーシュアン、ジュー・ミンジュン、ヘ・シズー、カン・リウ、チャオ・ジュン。 EMNLP'23 の調査結果
レトリバー拡張言語モデルは推論できるか?レトリーバーと言語モデルの間の非難ゲーム。 [コード]
パリシャド・ベナムガーダー、サンティアゴ・ミレット、シヴァ・レディ。 EMNLP'23 の調査結果
効果的な文脈内学習のための補足説明。
Xi Ye、Srinivasan Iyer、Asli Celikyilmaz、Ves Stoyanov、Greg Durrett、Ramakanth Pasunuru。 ACL'23 の調査結果
思考プログラムのプロンプト: 数値推論タスクの推論から計算を解きほぐす。 [コード]
陳文湖、馬雪光、王信義、ウィリアム・W・コーエン。 TMLR'23
正しいインスタンス化による教師なし説明の生成。
Sijie Cheng、Zhiyong Wu、Jiangjie Chen、Zhixing Liu、Yang Liu、Lingpeng Kong。 AAA'23
PAL: プログラム支援言語モデル。 [プロジェクト] [コード]
ルーユ・ガオ、アマン・マダーン、シューヤン・チョウ、ウリ・アロン、ペンフェイ・リウ、イーミン・ヤン、ジェイミー・カラン、グラハム・ノイビッグ。 ICML'23
協調的推論による言語モデルによる数学の文章問題の解決。 [コード]
Xinyu Zhu、Junjie Wang、Lin Zhang、Yuxiang Zhang、Ryui Gan、Jiaxing Zhang、Yujiu Yang。 ACL'23
大規模な言語モデルは自己改善できます。
Jiaxin Huang、Shixiang Shane Gu、Le Hou、Yuexin Wu、Xuezhi Wang、Hongkun Yu、Jiawei Han。 EMNLP'23
Mind's Eye: シミュレーションによるグラウンディングされた言語モデル推論。
Ruibo Liu、Jason Wei、Shixiang Shane Gu、Te-Yen Wu、Soroush Vosoughi、Claire Cui、Denny Zhou、Andrew M. Dai。 ICLR'23
大規模な言語モデルでの自動思考連鎖プロンプト。 [コード]
ジャン・ジュオシェン、アストン・チャン、ムー・リー、アレックス・スモラ。 ICLR'23
言語モデルは、多言語の思考連鎖推論器です。
フリーダ・シー、ミラク・スズグン、マルクス・フライターグ、シュエジ・ワン、スラジ・スリヴァツ、ソロシュ・ヴォソギ、ヒョンウォン・チョン、イー・テイ、セバスチャン・ルーダー、デニー・チョウ、ディパンジャン・ダス、ジェイソン・ウェイ。 ICLR'23
Ask Me Anything: 言語モデルを促すためのシンプルな戦略。 [コード]
シムラン・アローラ、アヴァニカ・ナラヤン、メイイー・F・チェン、ローレル・オア、ニール・グハ、クシュ・バティア、イネス・チャミ、フレデリック・サラ、クリストファー・レ。 ICLR'23
半構造化された数学的推論のためのポリシー勾配による動的即時学習。 [プロジェクト] [コード]
パン・ルー、リャン・チウ、カイウェイ・チャン、イン・ニアン・ウー、ソン・チュン・ジュー、タンメイ・ラージプロヒト、ピーター・クラーク、アシュウィン・カリヤン。 ICLR'23
Step-Aware Verifier を使用して大規模な言語モデルをより適切な推論にします。
Yifei Li、Zeqi Lin、Shizhuo Zhang、Qiang Fu、Bei Chen、Jian-Guang Lou、Weizhu Chen。 ACL'23
最小対最大のプロンプトにより、大規模な言語モデルで複雑な推論が可能になります。
デニー・チョウ、ナサナエル・シャーリ、レ・ホウ、ジェイソン・ウェイ、ネイサン・スケールズ、シュエジー・ワン、デール・シュールマンス、クレア・キュイ、オリヴィエ・ブスケ、クオック・リー、エド・チー。 ICLR'23
自己一貫性により、言語モデルにおける思考の推論の連鎖が改善されます。
Xuezhi Wang、Jason Wei、Dale Schurmans、Quoc Le、Ed Chi、Sharan Nanang、Aakanksha Chowdhery、Denny Zhou。 ICLR'23
常識推論のための検索拡張: 統一されたアプローチ。 [コード]
ユウ・ウェンハオ、朱チェングァン、張志涵、王朔航、張卓生、芳勇威、孟江。 EMNLP'22
コードの言語モデルは、数回で常識を学習できるものです。 [コード]
アマン・マダーン、シュヤン・ジョウ、ウリ・アロン、イーミン・ヤン、グラハム・ノイビッグ。 EMNLP'22
言語モデルを使用した定量的推論の問題の解決。 [ブログ]
アイトール・レウコウィッチ、アンダース・アンドレアッセン、デヴィッド・ドーハン、イーサン・ダイアー、ヘンリク・ミハレフスキー、ヴィナイ・ラマシュ、アンブローズ・スローン、ジェム・アニル、イマノール・シュラグ、テオ・ガットマン=ソロ、ユーファイ・ウー、ベナム・ネイシャブール、ガイ・ガー・アリ、ヴェダント・ミスラ。 NeurIPS'22
大規模な言語モデルはまだ計画できません。 [コード]
カルティク・ヴァルミーカム、アルベルト・オルモ、サラス・スリーダラン、スッバラオ・カンバムパティ。 NeurIPS'22
大規模な言語モデルはゼロショット推論器です。
小島武志、シェーン・グー・シーシャン、マシェル・リード、松尾豊、岩沢祐介。 NeurIPS'22
思考連鎖のための事前トレーニング済み言語モデルを反復的にプロンプトします。 [コード]
ボシー・ワン、シャン・デン、ファン・サン。 EMNLP'22
思考の連鎖プロンプトが大規模な言語モデルで推論を引き出します。 [ブログ]
ジェイソン・ウェイ、シュエジ・ワン、デール・シュールマンス、マールテン・ボスマ、ブライアン・イクター、フェイ・シア、エド・チー、クオック・リー、デニー・チョウ。 NeurIPS'22
↑ トップに戻る ↑
MathScale: 数学的推論のためのスケーリング命令チューニング。
唐正陽、張行興、王ベンヨウ、フル・ウェイ。プレプリント'24
形式論理に基づいた合成コーパスから演繹推論を学習します。 [コード]
森下輝史、森尾学、山口篤樹、十川泰弘。 ICML'23
象徴的な思考連鎖の蒸留: 小さなモデルでも段階的に「考える」ことができます。 [コード]
リウニアン・ハロルド・リー、ジャック・ヘッセル、ヨンジェ・ユー、シャン・レン、カイウェイ・チャン、イェジン・チェ。 ACL'23
複数ステップの推論に向けて、より小さな言語モデルを特化します。
ヤオ・フー、ハオ・ペン、リトゥ・オウ、アシシュ・サバルワル、トゥシャール・コート。 ICML'23
大規模な言語モデルは推論の教師です。 [コード]
ナムギュホ、ローラ・シュミット、ユン・セヨン。 ACL'23
小さな言語モデルに推論を教える。
ルーシー・シャーロット・マジスター、ジョナサン・マリンソン、ヤクブ・アダメク、エリック・マルミ、アリアクセイ・セヴェリン。 ACL'23ショート
意味分解を介して、大規模な言語モデルの複数ステップの推論機能をより小さなモデルに抽出します。
クマール・シュリダール、アレッサンドロ・ストルフォ、ムリンマヤ・サッチャン。 ACL'23 の調査結果
スケーリング命令 - 微調整された言語モデル。
ヒョン・ウォン・チョン、リー・ホウ、シェイン・ロングプレ、バレット・ゾフ、イー・テイ、ウィリアム・フェドゥス、エリック・リー、シュエジ・ワン、モスタファ・デガニ、シッダールタ・ブラフマー、アルバート・ウェブソン、シーシアン・シェーン・グ、ズユン・ダイ、ミラク・スズガン、シンユン・チェン、アーカンクシャ・チョードリー、シャラン・ナラン、ガウラフ・ミシュラ、アダムスユー、ヴィンセント・チャオ、ヤンピン・ファン、アンドリュー・ダイ、ホンクン・ユー、スラブ・ペトロフ、エド・H・チー、ジェフ・ディーン、ジェイコブ・デブリン、アダム・ロバーツ、デニー・チョウ、クオック・V・リー、ジェイソン・ウェイ。 JMLR'22
↑ トップに戻る ↑
ビジュアル スケッチパッド: マルチモーダル言語モデルの視覚的な思考連鎖としてのスケッチ。 [プロジェクト] [コード]
ユシ・フー、ウェイジア・シー、シンユー・フー、ダン・ロス、マリ・オステンドルフ、ルーク・ゼトルモイヤー、ノア・A・スミス、ランジェイ・クリシュナ。プレプリント'24
チャートベースの推論: LLM から VLM への機能の移転。
ビクター・カービューン、ハッサン・マンスール、ファンユー・リウ、ラーフル・アラリカッテ、ジル・ベクラー、ジンドン・チェン、アバンシュ・シャルマ。 NAACL'24 の調査結果
SpatialVLM: 視覚言語モデルに空間推論機能を与えます。 [プロジェクト]
ボーユアン・チェン、ジュオ・シュウ、ショーン・キルマーニ、ブライアン・イクター、ダニー・ドリース、ピート・フローレンス、ドーサ・サディ、レオニダス・ギバス、フェイ・シア。 CVPR'24
テーブルの連鎖: テーブルを理解するための推論チェーンにおける進化するテーブル。
Zilong Wang、Hao Zhang、Chun-Liang Li、Julian Martin Aisenschlos、Vincent Perot、Zifeng Wang、Lesly Miculicch、藤井泰久、Jingbo Shang、Chen-Yu Lee、Tomas Pfister。 ICLR'24
マルチモーダル LLM のリンクコンテキスト学習。 [コード]
ヤン・タイ、ウェイチェン・ファン、チャオ・チャン、フォン・ズー、ルイ・ジャオ、ツィーウェイ・リウ。 CVPR'24
推論における双子座: マルチモーダル大規模言語モデルの常識を明らかにする。
王玉清、趙雲。プレプリント'23
G-LLaVA: マルチモーダル大規模言語モデルを使用した幾何学的問題の解決。
Jiahui Gao、Renjie Pi、Jipeng Zhang、Jiacheng Ye、Wanjun Zhong、Yufei Wang、Lanqing Hon、Jianhua Han、Hang Xu、Zhenguo Li、Lingpeng Kong。プレプリント'23
Chameleon: 大規模な言語モデルを使用したプラグアンドプレイの構成推論。 [プロジェクト] [コード]
パン・ルー、バオリン・ペン、ハオ・チェン、ミシェル・ギャレー、カイウェイ・チャン、インニアン・ウー、ソンチュン・ジュー、ジャンフェン・ガオ。 NeurIPS'23
MM-REACT: ChatGPT にマルチモーダルな推論とアクションを要求します。 [プロジェクト] [コード] [デモ]
Zhengyuan Yang、Linjie Li、Jianfeng Wang、Kevin Lin、Ehsan Azarnasab、Faisal Ahmed、Zicheng Liu、Ce Liu、Michael Zeng、Lijuan Wang。プレプリント'23
ViperGPT: 推論のための Python 実行による視覚的推論。 [プロジェクト] [コード]
ディダック・スリス、サシット・メノン、カール・ヴォンドリック。 ICCV'23
Visual ChatGPT: Visual Foundation モデルを使用した会話、描画、編集。 [コード]
Chenfei Wu、Shengming ying 、Weizhen Qi、Xiaodong Wang、Zecheng Tang、Nan Duan。プレプリント'23
言語モデルにおけるマルチモーダル思考連鎖推論。 [コード]
ジャン・ジュオシェン、アストン・チャン、ムー・リー、ハイ・ジャオ、ジョージ・カリピス、アレックス・スモラ。プレプリント'23
ビジュアル プログラミング: トレーニングを必要としない構成的なビジュアル推論。 [プロジェクト] [コード]
タンメイ・グプタ、アニルッダ・ケンバヴィ。 CPVR'23
ソクラテス モデル: 言語を使用したゼロショット マルチモーダル推論の構築。 [プロジェクト] [コード]
アンディ・ゼン、マリア・アタリアン、ブライアン・イヒター、クシシュトフ・チョロマンスキー、エイドリアン・ウォン、ステファン・ウェルカー、フェデリコ・トンバリ、アヴィーク・プロヒト、マイケル・リョー、ヴィカス・シンドワニ、ジョニー・リー、ヴィンセント・ヴァンホーク、ピート・フローレンス。 ICLR'23
↑ トップに戻る ↑
↑ トップに戻る ↑
↑ トップに戻る ↑
/abs/
形式)。何か間違ったことをしたとしても心配しないでください、それはあなたのために修正されます!