關於如何釋放法學碩士和 MLLM 推理能力的精選論文和資源集。
另請查看Awesome-Controllable-Diffusion 。
大型語言模型的焦點:一項調查。 [代碼]
鄭子凡、王業兆輝、黃雨馨、宋世超、唐波、熊飛宇、李志宇。預印本'24
大型語言模型中的內部一致性和自我回饋:調查。 [代碼]
梁迅、宋世超、鄭子凡、王涵宇、於慶辰、李迅凱、李榮華、熊飛宇、李志宇。預印本'24
使用大型語言模型推理解決難題:調查。 [代碼]
帕納吉奧蒂斯·賈迪基亞羅格魯、瑪麗亞·林佩萊烏、喬治·菲蘭德里亞諾斯、喬治·斯塔穆。預印本'24
用於數學推理的大型語言模型:進展與挑戰。
Janice Ahn、Rishu Verma、樓仁澤、劉迪、張銳、尹文鵬。前十字韌帶'24
大型語言模型中的推理:一項調查。 [代碼]
黃傑,張震川。 ACL'23 調查結果
用語言模型提示進行推理:一項調查。 [代碼]
喬碩飛、歐一欣、張寧宇、陳翔、姚雲智、鄧淑敏、譚傳奇、黃飛、陳華軍。前十字韌帶'23
↑ 返回頂部 ↑
從 Medprompt 到 o1:探索醫療挑戰問題及其他問題的運行時策略。
Harsha Nori、Naoto Usuyama、Nicholas King、Scott Mayer McKinney、Xavier Fernandes、Sheng Chang、Eric Horvitz。預印本'24
去CoT還是不去CoT?思維鏈主要有助於數學和符號推理。
Zayne Sprague、Fangcong Yin、Juan Diego Rodriguez、Dongwei Jiang、Manya Wadhwa、Prasann Singhal、趙新宇、Xi Ye、Kyle Mahowald、Greg Durrett。預印本'24
法學碩士可以產生新穎的研究想法嗎?一項由 100 多名 NLP 研究人員參與的大規模人體研究。
斯成磊,楊迪一,橋本龍典。預印本'24
窺探令牌偏差:大型語言模型還不是真正的推理機。 [代碼]
蔣博文,謝陽新宇,郝卓群,王曉萌,Tanwi Mallick,Weijie J. Su,Camillo J. Taylor,Dan Roth。 EMNLP'24
迭代頭:思想鏈的機制研究
維維安·卡巴內斯、查爾斯·阿納爾、瓦西姆·布阿齊茲、愛麗絲·楊、弗朗索瓦·查頓、朱莉婭·肯佩。神經IPS'24
大型語言模型是否潛在地執行多跳推理?
Sohee Yang、Elena Gribovskaya、Nora Kassner、Mor Geva、Sebastian Riedel。前十字韌帶'24
大型語言模型推理中的前提順序很重要。
陳新雲,Ryan A. Chi,王學智,周丹尼。 ICML'24
推理步長對大型語言模型的影響。
金明宇、於勤凱、舒東、趙海燕、華文躍、孟燕達、張永峰、杜蒙南。 ACL'24 調查結果
大型語言模型還無法自我修正推理。
黃傑、陳新雲、Swaroop Mishra、懷修史蒂文·鄭、Adams Wei Yu、宋新英、Denny Zhou。 ICLR'24
程式碼資料在哪個訓練階段有助於LLM推理?
馬英偉,劉悅,餘悅,張元良,姜宇,王昌建,李珊珊。 ICLR'24
衡量思想鏈推理的可信度。
塔梅拉·蘭哈姆、安娜·陳、安什·拉達克里希納、伯努瓦·斯坦納、卡森·丹尼森、丹尼·埃爾南德斯、達斯汀·李、艾辛·杜姆斯、艾文·胡賓格、傑克森·凱尼恩、卡米爾·盧科斯休特、卡琳娜·阮、牛頓·程、尼可拉斯·約瑟夫、尼可拉斯·希弗、奧利佛·勞施、羅賓·拉森、山姆·麥坎迪什、桑迪潘·昆杜、索拉夫·卡達瓦斯、香農·楊、托馬斯·赫尼根、蒂莫西·麥克斯韋、蒂莫西·泰林-勞頓、特里斯坦·休姆、扎克·哈特菲爾德-多茲、賈里德·卡普蘭、簡·布勞納、塞繆爾·R·鮑曼、伊桑·佩雷斯。預印本'23
信仰與命運:變形金剛對組合性的限制。
Nouha Dziri、Ximing Lu、Melanie Sclar、Xiang Lorraine Li、Liwei Jiang、Bill Yuchen Lin、Peter West、Chandra Bhagavatula、Ronan Le Bras、Jena D. Hwang、Soumya Sanyal、Sean Welleck、Xiang Ren、Allyson Ettinger、Zaid Haroui、崔藝珍.神經IPS'23
語言模型並不總是說出他們的想法:思想鏈提示中的不忠實解釋。 [代碼]
邁爾斯·特平、朱利安·邁克爾、伊森·佩雷斯、塞繆爾·R·鮑曼。神經IPS'23
ChatGPT 在推理、幻覺和互動性方面的多任務、多語言、多模式評估。
Yejin Bang、Samuel Cahyawijaya、Nayeon Lee、Wenliang Dai、Dan Su、Bryan Wilie、Holy Lovenia、Ziwei Ji、Tizheng Yu、Willy Chung、Quyet V. Do、Yan Xu、Pascale Fung。 AACL'23
大型語言模型很容易被不相關的上下文分散注意力。
Freda Shi、Xinyun Chen、Kanishka Misra、Nathan Scales、David Dohan、Ed Chi、Nathanael Schärli、Denny Zhou。 ICML'23
轉念一想,我們不要一步步思考!零樣本推理中的偏差和毒性。
奧馬爾·謝赫、張宏鑫、威廉·赫爾德、麥可·伯恩斯坦、楊迪一。前十字韌帶'23
理解思想鏈提示:對重要事項的實證研究。 [代碼]
Boshi Wang、Sewon Min、Xiang Deng、Jiaming Shen、You Wu、Luke Zettlemoyer、Huan Sun。前十字韌帶'23
具有挑戰性的大基準任務以及思維鍊是否可以解決它們。 [代碼]
Mirac Suzgun、Nathan Scales、Nathanael Schärli、Sebastian Gehrmann、Yi Tay、Hyung Won Chung、Aakanksha Chowdhery、Quoc V. Le、Ed H. Chi、Denny Zhou、Jason Wei。 ACL'23 調查結果
大型語言模式的新興能力。 [部落格]
Jason Wei、Yi Tay、Rishi Bommasani、Colin Raffel、Barret Zoph、Sebastian Borgeaud、Dani Yogatama、Maarten Bosma、Denny Zhou、Donald Metzler、Ed H. Chi、Tatsunori Hashimoto、Oriol Vinyals、Percy Liang、Jeff、William Fedu。 TMLR'22
語言模型可以從上下文的解釋中學習嗎?
Andrew K. Lampinen、Ishita Dasgupta、Stephanie CY Chan、Kory Matthewson、Michael Henry Tessler、Antonia Creswell、James L. McClelland、Jane X. Wang、Felix Hill。 EMNLP'22
↑ 返回頂部 ↑
透過強化學習訓練語言模型進行自我修正。
Aviral Kumar、Vincent Zhuang、Rishabh Agarwal、Yi Su、JD Co-Reyes、Avi Singh、Kate Baumli、Shariq Iqbal、Colton Bishop、Rebecca Roelofs、Lei M.Zhang、Kay McKinney、Disha Shrivastava、Cosmin Paduraru、George Tucker、Doina Precup,費耶爾·貝巴哈尼,亞歷山大·浮士德。預印本'24
OpenAI o1.
開放人工智慧團隊。技術報告'24
Agent Q:自主 AI 代理的高階推理與學習。
普拉納夫·普塔、埃德蒙·米爾斯、納曼·加爾格、蘇米特·莫特瓦尼、切爾西·芬恩、迪維揚什·加爾格、拉斐爾·拉法洛夫。預印本'24
DotaMath:透過程式碼輔助進行思想分解和數學推理自我修正。 [代碼]
李成鵬,董冠廷,薛明峰,彭茹,王翔,劉大一恆。預印本'24
LLM-ARC:透過自動推理評論家增強法學碩士。
Aditya Kalyanpur、凱拉什·薩拉瓦納庫瑪、維克多·巴雷斯、珍妮佛·楚-卡羅爾、大衛·梅爾維爾、大衛·費魯奇。預印本'24
Q*:透過深思熟慮的規劃改進法學碩士的多步驟推理。
王超傑,鄧彥辰,呂志毅,嚴水成,安波。預印本'24
思想緩衝區:大型語言模型的思想增強推理。 [代碼]
楊凌,餘兆晨,張天軍,曹詩一,徐敏凱,張文濤,Joseph E. Gonzalez,崔斌。預印本'24
透過想像、探索和批評實現法學碩士的自我完善。
葉天、彭寶林、宋林峰、金麗峰、於殿、米海濤、於冬。預印本'24
自玩對抗性語言遊戲增強 LLM 推理能力。
程鵬宇、胡天浩、徐涵、張志松、戴勇、韓雷、杜南。預印本'24
評估數學推理的準確度。
夏世傑,李雪峰,劉益新,吳同爽,劉鵬飛。預印本'24
透過偏好樹提升法學碩士推理通才。
袁立凡、崔甘曲、王漢斌、丁寧、王星耀、鄧佳、單博吉、陳慧敏、謝若冰、林彥凱、劉正浩、週博文、彭浩、劉志遠、孫茂松。預印本'24
LLM3:基於大型語言模型的任務和具有運動失敗推理的運動規劃。 [代碼]
王舒,韓牧之,焦子元,張澤宇,吳英念,朱松春,劉航新。 IROS'24
Quiet-STAR:語言模型可以在說話前自學思考。
艾瑞克·澤利克曼、喬治·哈里克、邵一嘉、瓦魯納·賈亞西里、尼克·哈伯、諾亞·D·古德曼。預印本'24
GLoRe:何時、何地以及如何透過全局和本地改進改進法學碩士推理。
亞歷克斯·哈夫里拉(Alex Havrilla)、沙拉斯·拉帕西(Sharath Raparthy)、克里斯托福魯斯·納爾姆潘蒂斯(Christoforus Nalmpantis)、簡·德維迪-於(Jane Dwivedi-Yu)、馬克西姆·朱拉文斯基(Maksym Zhuravinskyi)、埃里克·漢布羅(Eric Hambro)、羅伯塔·雷諾(Roberta Railneau)。 ICML'24
無需提示的思考鏈推理。
王學智,周丹尼.預印本'24
V-STAR:為自學推理者培訓驗證者。
阿里安·侯賽尼、袁星迪、尼古拉·馬爾金、亞倫·庫維爾、亞歷山德羅·索爾多尼、瑞沙布·阿加瓦爾。預印本'24
InternLM-Math:開放數學大型語言模型以實現可驗證的推理。
應懷遠、張碩、李林洋、周哲健、邵雲帆、費兆業、馬一川、洪嘉偉、劉奎坤、王子怡、王玉棟、吳子健、李帥斌、週峰哲、劉宏偉、張松陽、張文偉、嚴航、邱西鵬、王佳玉、陳凱、林大華。預印本'24
自我發現:大型語言模型自組成推理結構。
Pei Zhou、Jay Pujara、Xiang Ren、Xinyun Chen、Heng-Tze Cheng、Quoc V. Le、Ed H. Chi、Denny Zhou、Swaroop Mishra、Huaixiu Steven Cheng。預印本'24
DeepSeekMath:突破開放語言模型中數學推理的極限。
邵志宏、王培毅、朱啟浩、徐潤鑫、宋俊曉、畢曉、張浩偉、張銘川、李YK、吳勇、郭大亞。預印本'24
使用大型語言模型進行 K 級推理。
張亞東、毛紹光、葛濤、王迅、夏艷、蘭曼、魏福如。預印本'24
透過抽象鏈推理有效使用工具。
高斯林、Jane Dwivedi-Yu、Ping Yu、Xiaoqing Ellen Tan、Ramakanth Pasunuru、Olga Golovneva、Koustuv Sinha、Asli Celikyilmaz、Antoine Bosselut、王天祿。預印本'24
透過互動演示教授語言模型以自我改進。
肖宇、彭寶林、米歇爾加萊、高劍峰、周宇。 NAACL'24
透過邏輯增強大型語言模型中的零鏡頭思想鏈推理。 [代碼]
趙旭峰、李夢迪、盧文浩、Cornelius Weber、Jae Hee Lee、Kun Chu、Stefan Wermter。科林'24
驗證鏈減少了大型語言模型中的幻覺。
Shehzaad Dhuliawala、Mojtaba Komeili、Jing Xu、Roberta Raileanu、Xian Li、Asli Celikylmaz、Jason Weston。 ACL'24 調查結果
思想骨架:大型語言模型可以進行並行解碼。
寧雪飛,林子楠,周子軒,楊華中,王宇。 ICLR'24
問題分解提高了模型生成推理的可信度。 [代碼]
安許·拉達克里希南、卡琳娜·阮、安娜·陳、卡羅爾·陳、卡森·丹尼森、丹尼·埃爾南德斯、埃辛·杜姆斯、埃文·胡賓格、傑克森·凱尼恩、卡米利·盧科斯休特、牛頓·程、尼可拉斯·約瑟夫、尼可拉斯·希弗、奧利佛·勞施、山姆·麥坎德利許、謝爾·埃爾·肖克、塔梅拉蘭納姆、提姆·麥克斯韋、文卡特薩·錢德拉塞卡蘭、扎克·哈特菲爾德-多茲、賈里德·卡普蘭、揚·布勞納、塞繆爾·R·鮑曼、伊桑·佩雷斯。預印本'23
讓我們逐步驗證一下。
亨特·萊特曼、維尼特·科薩拉朱、尤拉·布爾達、哈里·愛德華茲、鮑文·貝克、泰迪·李、揚·雷克、約翰·舒爾曼、伊利亞·蘇茨克弗、卡爾‧科布。 ICLR'24
REFINER:中間表示的推理回饋。 [專案] [程式碼]
Debjit Paul、Mete Ismayilzada、Maxime Peyrard、Beatriz Borges、Antoine Bosselut、Robert West、Boi Faltings。 EACL'24
大型語言模型的思想鏈主動提示。 [代碼]
刁世哲,王鵬程,林勇,張桐。前十字韌帶'24
作為歸納推理機的語言模型。
楊林、董立、杜新亞、程浩、Erik Cambria、劉曉東、高劍鋒、魏福如。 EACL'24
促進 LLM 推理:透過強化情境剪枝突破少樣本學習的極限。
黃希傑,張莉娜,程光廷,毛楊。預印本'23
Logic-LM:使用符號求解器增強大型語言模型的可信邏輯推理能力。 [代碼]
潘良明、阿隆·阿爾巴拉克、王欣怡、王威廉·楊。 EMNLP'23 調查結果
思想遞歸:使用語言模型進行多上下文推理的分而治之方法。 [代碼] [海報]
李秀燦、金健熙。 ACL'23 調查結果
用語言模型推理就是用世界模型來規劃。
郝世波,谷一,馬浩迪,洪嘉華,王振,王喆,胡志婷。 EMNLP'23
透過思考鏈提示推理內隱情感。 [代碼]
浩飛,李波波,劉謙,李東兵,李飛,蔡達成。前十字韌帶'23
思想之樹:用大型語言模型故意解決問題。 [代碼]
姚舜宇、於殿、趙傑弗裡、伊扎克·沙夫蘭、托馬斯·L·格里菲斯、曹元、卡蒂克·納拉辛漢。神經IPS'23
SatLM:使用聲明性提示的滿意度輔助語言模式。 [代碼]
夕野、陳巧初、伊西爾·迪利格、格雷格·德雷特。神經IPS'23
ART:大型語言模型的自動多步驟推理與工具使用。
Bhargavi Paranjape、Scott Lundberg、Sameer Singh、Hannaneh Hajishirzi、Luke Zettlemoyer、Marco Tulio Ribeiro。預印本'23
透過標記資料的思想鏈自動提示增強和選擇。 [代碼]
岑嘉順,刁世哲,張桐。 EMNLP'23 調查結果
綜合提示:為大型語言模型產生思想鏈演示。
邵志宏,宮業雲,沉業龍,黃敏烈,段楠,陳偉柱。 ICML'23
忠實的思維鏈推理。
Qing Lyu、Shreya Havaldar、Adam Stein、張莉、Delip Rao、Eric Wong、Marianna Apidianaki、Chris Callison-Burch。 IJCNLP-AACL'23
重新思考檢索:忠實的大語言模型推理。
何航峰,張宏明,丹·羅斯。預印本'23
LAMBADA:自然語言自動推理的向後連結。
Seyed Mehran Kazemi、Najoung Kim、Deepti Bhatia、徐鑫、Deepak Ramachandran。前十字韌帶'23
針對知識密集多步驟問題的交叉檢索與思想鏈推理。 [代碼]
哈什·特里維迪(Harsh Trivedi)、尼蘭詹·巴拉蘇布拉曼尼安(Niranjan Balasubramanian)、圖沙爾·科特(Tushar Khot)、阿什什·薩巴瓦爾(Ashish Sabharwal )。前十字韌帶'23
大型語言模型是具有自我驗證功能的推理機。 [代碼]
翁宜軒,朱敏君,何世柱,劉康,趙軍。 EMNLP'23 調查結果
檢索器增強語言模型可以推理嗎?檢索器和語言模型之間的指責遊戲。 [代碼]
帕里沙德·貝南·加德爾、聖地亞哥·米雷、西瓦·雷迪。 EMNLP'23 調查結果
有效情境學習的補充解釋。
Xi Ye、Srinivasan Iyer、Asli Celikylmaz、Ves Stoyanov、Greg Durrett、Ramakanth Pasunuru。 ACL'23 調查結果
思路提示:將計算與數值推理任務的推理分開。 [代碼]
陳文虎,馬學光,王欣怡,威廉·W·科恩。 TMLR'23
透過正確的實例化產生無監督的解釋。
程思傑,吳志勇,陳江傑,李志興,劉洋,孔令鵬。 AAAI'23
PAL:程式輔助語言模型。 [專案] [程式碼]
高魯宇、Aman Madaan、週書彥、Uri Alon、劉鵬飛、楊一鳴、Jamie Callan、Graham Neubig。 ICML'23
透過合作推理誘導的語言模型解決數學應用問題。 [代碼]
朱新宇,王俊傑,張琳,張宇翔,甘如意,張嘉興,楊宇九。前十字韌帶'23
大型語言模型可以自我改進。
黃嘉欣,顧世祥,侯樂,吳躍新,王學智,於洪坤,韓家偉。 EMNLP'23
Mind's Eye:透過模擬進行基礎語言模型推理。
劉瑞波,賈森·魏,世翔肖恩·顧,Te-Yen Wu,Soroush Vosoughi,Claire Cui,Denny Zhou,Andrew M. Dai。 ICLR'23
大型語言模型中的自動化思考提示鏈。 [代碼]
張卓勝、張阿斯頓、穆里、亞歷克斯·斯莫拉。 ICLR'23
語言模型是多語言思考鏈推理器。
Freda Shi、Mirac Suzgun、Markus Freitag、Xuezhi Wang、Suraj Srivats、Soroush Vosoughi、Hyung Won Chung、Yi Tay、Sebastian Ruder、Denny Zhou、Dipanjan Das、Jason Wei。 ICLR'23
Ask Me Anything:提示語言模型的簡單策略。 [代碼]
Simran Arora、Avanika Narayan、Mayee F. Chen、Laurel Orr、Neel Guha、Kush Bhatia、Ines Chami、Frederic Sala、Christopher Ré。 ICLR'23
透過半結構化數學推理的策略梯度進行動態提示學習。 [專案] [程式碼]
潘璐、邱亮、張凱偉、吳英年、朱松春、Tanmay Rajpurohit、Peter Clark、Ashwin Kalyan。 ICLR'23
使用逐步感知驗證器使大型語言模型成為更好的推理器。
李逸飛,林澤琪,張世卓,付強,陳蓓,樓建光,陳偉柱。前十字韌帶'23
從最少到最多的提示可以在大型語言模型中進行複雜的推理。
Denny Zhou、Nathanael Schärli、Le Hou、Jason Wei、Nathan Scales、Xuezhi Wang、Dale Schuurmans、Claire Cui、Olivier Bousquet、Quoc Le、Ed Chi。 ICLR'23
自我一致性改善了語言模型中的思考鏈推理。
王學智、Jason Wei、Dale Schuurmans、Quoc Le、Ed Chi、Sharan Narang、Aakanksha Chowdhery、Denny Zhou。 ICLR'23
常識推理的檢索增強:統一方法。 [代碼]
於文浩,朱晨光,張志涵,王碩航,張卓勝,方宇偉,姜孟。 EMNLP'22
程式碼的語言模型是少數常識學習者。 [代碼]
馬丹 (Aman Madaan)、週書彥 (Shuyan Zhou)、烏裡阿隆 (Uri Alon)、楊一鳴 (Yiming Yang)、格雷厄姆紐比格 (Graham Neubig)。 EMNLP'22
用語言模型解決定量推理問題。 [部落格]
Aitor Lewkowycz、Anders Andreassen、David Dohan、Ethan Dyer、Henryk Michalewski、Vinay Ramasesh、Ambrose Slone、Cem Anil、Imanol Schlag、Theo Gutman-Solo、Yuhuai Wu、Behnam Neyshabur、Guy Gur-Ari、Vedant Misra。神經IPS'22
大型語言模型仍然無法規劃。 [代碼]
卡蒂克·瓦爾米卡姆、阿爾貝托·奧爾莫、薩拉斯·斯里德哈蘭、蘇巴拉奧·坎巴姆帕蒂。神經IPS'22
大型語言模型是零樣本推理機。
小島武、顧世翔、馬歇爾·里德、松尾豐、岩澤佑介。神經IPS'22
迭代提示思想鏈的預訓練語言模型。 [代碼]
王博士,鄧翔,孫煥。 EMNLP'22
思維鏈提示引發大型語言模型中的推理。 [部落格]
Jason Wei、王學智、Dale Schuurmans、Maarten Bosma、Brian Ichter、Fei Xia、Ed Chi、Quoc Le、Denny Zhou。神經IPS'22
↑ 返回頂部 ↑
MathScale:數學推理的縮放指令調整。
唐正陽,張星星,王本友,魏福如。預印本'24
基於形式邏輯的合成語料庫學習演繹推理。 [代碼]
森下輝文、森尾岳、山口敦希、曾川康弘。 ICML'23
符號思維鏈蒸餾:小模型也能一步步“思考” [代碼]
留年 Harold Li、Jack Hessel、Youngjae Yu、Xiang Ren、Kai-Wei Chang、Yejin Choi。前十字韌帶'23
將較小的語言模型專門用於多步驟推理。
付耀、彭浩、歐力圖、Ashish Sabharwal、Tushar Khot。 ICML'23
大型語言模式是推理老師。 [代碼]
何南奎、勞拉·施密德、尹世英。前十字韌帶'23
教授小語言模型推理。
露西·夏洛特·瑪格斯特、喬納森·馬林森、雅庫布·阿達梅克、艾瑞克·馬爾米、阿利亞克塞·塞維林。 ACL'23 短
透過語意分解將大型語言模型的多步驟推理能力提煉成較小的模型。
庫馬爾·施裡達爾、亞歷山德羅·斯托爾福、姆林瑪亞·薩尚。 ACL'23 調查結果
擴展指令微調語言模型。
Hyung Won Chung、Le Hou、Shayne Longpre、Barret Zoph、Yi Tay、William Fedus、Eric Li、Xuezhi Wang、Mostafa Dehghani、Siddhartha Brahma、Albert Webson、Shiyang Shane Gu、Zhuyun Dai、Mirac Suzgun、Xinyun Chen、Aakyun Chen、Aakshaak Sharan Narang、Gaurav Mishra、Adams Yu、Vincent Zhao、Yanping Huang、Andrew Dai、Hongkun Yu、Slav Petrov、Ed H. Chi、Jeff Dean、Jacob Devlin、Adam Roberts、Denny Zhou、Quoc V. Le、Jason Wei。 JMLR'22
↑ 返回頂部 ↑
視覺畫板:草圖作為多模態語言模型的視覺思想鏈。 [專案] [程式碼]
胡雨詩、史維佳、傅星宇、丹·羅斯、馬裡·奧斯滕多夫、盧克·澤特莫耶、諾亞·A·史密斯、蘭傑·克里希納。預印本'24
基於圖表的推理:將能力從 LLM 轉移到 VLM。
維克多·卡邦、哈桑·曼蘇爾、劉芳宇、拉胡爾·阿拉里卡特、吉爾斯·巴奇勒、陳金東、阿布漢舒·夏爾馬。 NAACL'24 調查結果
SpatialVLM:賦予視覺語言模型空間推理能力。 [專案]
陳博源、徐卓、Sean Kirmani、Brian Ichter、Danny Driess、Pete Florence、Dorsa Sadigh、Leonidas Guibas、Fei Xia。 CVPR'24
Chain-of-Table:在推理鏈中進化表以實現表理解。
王子龍、張浩、李春亮、Julian Martin Eisenschlos、Vincent Perot、王子峰、Lesly Miculicich、Yasuhisa Fujii、尚靜波、Chen-Yu Lee、Tomas Pfister。 ICLR'24
多模式法學碩士的連結上下文學習。 [代碼]
泰岩,範偉辰,張兆,朱峰,趙銳,劉紫薇。 CVPR'24
推理中的雙子座:揭示多模態大語言模型中的常識。
王玉清、趙雲.預印本'23
G-LLaVA:用多模態大語言模型解幾何問題。
高家輝、皮仁傑、張吉鵬、葉家成、鍾萬軍、王宇飛、洪蘭清、韓建華、徐航、李振國、孔令鵬。預印本'23
Chameleon:使用大型語言模型進行即插即用的組合推理。 [專案] [程式碼]
盧潘、彭寶林、程浩、Michel Galley、張凱偉、吳英年、朱松春、高劍鋒。神經IPS'23
MM-REACT:提示 ChatGPT 進行多模式推理和行動。 [專案] [程式碼] [演示]
楊正元、李林傑、王劍鋒、Kevin Lin、Ehsan Azarnasab、Faisal Ahmed、劉子成、劉策、Michael Zeng、王麗娟。預印本'23
ViperGPT:透過 Python 執行進行視覺推理以進行推理。 [專案] [程式碼]
迪達克·蘇里斯、薩奇特·梅農、卡爾·馮德里克。 ICCV'23
Visual ChatGPT:使用 Visual Foundation 模型進行對話、繪圖與編輯。 [代碼]
吳晨飛,尹勝明,齊偉振,王曉東,唐澤成,段楠。預印本'23
語言模型中的多模態思考鏈推理。 [代碼]
張卓勝、張阿斯頓、李穆、趙海、George Karypis、Alex Smola。預印本'23
視覺化程式設計:無需訓練的組合視覺推理。 [專案] [程式碼]
坦梅古普塔,阿尼魯達肯巴維。 CPVR'23
蘇格拉底模型:用語言組成零樣本多模態推理。 [專案] [程式碼]
Andy Zeng、Maria Attarian、Brian Ichter、Krzysztof Choromanski、Adrian Wong、Stefan Welker、Federico Tombari、Aveek Purohit、Michael Ryoo、Vikas Sindhwani、Johnny Lee、Vincent Vanhoucke、Pete Florence。 ICLR'23
↑ 返回頂部 ↑
↑ 返回頂部 ↑
↑ 返回頂部 ↑
/abs/
格式)。如果您做錯了什麼,請不要擔心,它會為您解決!