关于如何释放法学硕士和 MLLM 推理能力的精选论文和资源集。
另请查看Awesome-Controllable-Diffusion 。
大型语言模型的关注焦点:一项调查。 [代码]
郑子凡、王业兆辉、黄雨馨、宋世超、唐波、熊飞宇、李志宇。预印本'24
大型语言模型中的内部一致性和自我反馈:调查。 [代码]
梁迅、宋世超、郑子凡、王涵宇、于庆辰、李迅凯、李荣华、熊飞宇、李志宇。预印本'24
使用大型语言模型推理解决难题:调查。 [代码]
帕纳吉奥蒂斯·贾迪基亚罗格鲁、玛丽亚·林佩莱乌、乔治·菲兰德里亚诺斯、乔治·斯塔穆。预印本'24
用于数学推理的大型语言模型:进展和挑战。
Janice Ahn、Rishu Verma、楼仁泽、刘迪、张锐、尹文鹏。前交叉韧带'24
大型语言模型中的推理:一项调查。 [代码]
黄杰,张震川。 ACL'23 调查结果
用语言模型提示进行推理:一项调查。 [代码]
乔硕飞、欧一欣、张宁宇、陈翔、姚云智、邓淑敏、谭传奇、黄飞、陈华军。前交叉韧带'23
↑ 返回顶部 ↑
从 Medprompt 到 o1:探索医疗挑战问题及其他问题的运行时策略。
Harsha Nori、Naoto Usuyama、Nicholas King、Scott Mayer McKinney、Xavier Fernandes、Sheng Chang、Eric Horvitz。预印本'24
去CoT还是不去CoT?思维链主要有助于数学和符号推理。
Zayne Sprague、Fangcong Yin、Juan Diego Rodriguez、Dongwei Jiang、Manya Wadhwa、Prasann Singhal、赵新宇、Xi Ye、Kyle Mahowald、Greg Durrett。预印本'24
法学硕士可以产生新颖的研究想法吗?一项由 100 多名 NLP 研究人员参与的大规模人体研究。
斯成磊,杨迪一,桥本龙典。预印本'24
令牌偏差一瞥:大型语言模型还不是真正的推理机。 [代码]
蒋博文,谢杨新宇,郝卓群,王晓萌,Tanwi Mallick,Weijie J. Su,Camillo J. Taylor,Dan Roth。 EMNLP'24
迭代头:思想链的机制研究
维维安·卡巴内斯、查尔斯·阿纳尔、瓦西姆·布阿齐兹、爱丽丝·杨、弗朗索瓦·查顿、朱莉娅·肯佩。神经IPS'24
大型语言模型是否潜在地执行多跳推理?
Sohee Yang、Elena Gribovskaya、Nora Kassner、Mor Geva、Sebastian Riedel。前交叉韧带'24
大型语言模型推理中的前提顺序很重要。
陈新云,Ryan A. Chi,王学智,周丹尼。 ICML'24
推理步长对大型语言模型的影响。
金明宇、于勤凯、舒东、赵海燕、华文跃、孟燕达、张永峰、杜蒙南。 ACL'24 调查结果
大型语言模型还无法自我纠正推理。
黄杰、陈新云、Swaroop Mishra、怀修史蒂文·郑、Adams Wei Yu、宋新英、Denny Zhou。 ICLR'24
代码数据在哪个训练阶段有助于LLM推理?
马英伟,刘悦,余悦,张元良,姜宇,王昌建,李珊珊。 ICLR'24
衡量思想链推理的可信度。
塔梅拉·兰哈姆、安娜·陈、安什·拉达克里希南、伯努瓦·斯坦纳、卡森·丹尼森、丹尼·埃尔南德斯、达斯汀·李、艾辛·杜姆斯、埃文·胡宾格、杰克逊·凯尼恩、卡米尔·卢科斯休特、卡琳娜·阮、牛顿·程、尼古拉斯·约瑟夫、尼古拉斯·希弗、奥利弗·劳施、罗宾·拉尔森、萨姆·麦坎德利什、桑迪潘·昆杜、 Saurav Kadavath、Shannon Yang、Thomas Henighan、Timothy Maxwell、Timothy Telleen-Lawton、Tristan Hume、Zac Hatfield-Dodds、Jared Kaplan、Jan Brauner、Samuel R. Bowman、Ethan Perez。预印本'23
信仰与命运:变形金刚对组合性的限制。
Nouha Dziri、Ximing Lu、Melanie Sclar、Xiang Lorraine Li、Liwei Jiang、Bill Yuchen Lin、Peter West、Chandra Bhagavatula、Ronan Le Bras、Jena D. Hwang、Soumya Sanyal、Sean Welleck、Xiang Ren、Allyson Ettinger、Zaid Harchaoui、崔艺珍.神经IPS'23
语言模型并不总是说出他们的想法:思想链提示中的不忠实解释。 [代码]
迈尔斯·特平、朱利安·迈克尔、伊桑·佩雷斯、塞缪尔·R·鲍曼。神经IPS'23
ChatGPT 在推理、幻觉和交互性方面的多任务、多语言、多模式评估。
Yejin Bang、Samuel Cahyawijaya、Nayeon Lee、Wenliang Dai、Dan Su、Bryan Wilie、Holy Lovenia、Ziwei Ji、Tizheng Yu、Willy Chung、Quyet V. Do、Yan Xu、Pascale Fung。 AACL'23
大型语言模型很容易被不相关的上下文分散注意力。
Freda Shi、Xinyun Chen、Kanishka Misra、Nathan Scales、David Dohan、Ed Chi、Nathanael Schärli、Denny Zhou。 ICML'23
转念一想,我们不要一步步思考!零样本推理中的偏差和毒性。
奥马尔·谢赫、张宏鑫、威廉·赫尔德、迈克尔·伯恩斯坦、杨迪一。前交叉韧带'23
理解思想链提示:对重要事项的实证研究。 [代码]
Boshi Wang、Sewon Min、Xiang Deng、Jiaming Shen、You Wu、Luke Zettlemoyer、Huan Sun。前交叉韧带'23
具有挑战性的大基准任务以及思维链是否可以解决它们。 [代码]
Mirac Suzgun、Nathan Scales、Nathanael Schärli、Sebastian Gehrmann、Yi Tay、Hyung Won Chung、Aakanksha Chowdhery、Quoc V. Le、Ed H. Chi、Denny Zhou、Jason Wei。 ACL'23 调查结果
大型语言模型的新兴能力。 [博客]
Jason Wei、Yi Tay、Rishi Bommasani、Colin Raffel、Barret Zoph、Sebastian Borgeaud、Dani Yogatama、Maarten Bosma、Denny Zhou、Donald Metzler、Ed H. Chi、Tatsunori Hashimoto、Oriol Vinyals、Percy Liang、Jeff Dean、William Fedus。 TMLR'22
语言模型可以从上下文的解释中学习吗?
Andrew K. Lampinen、Ishita Dasgupta、Stephanie CY Chan、Kory Matthewson、Michael Henry Tessler、Antonia Creswell、James L. McClelland、Jane X. Wang、Felix Hill。 EMNLP'22
↑ 返回顶部 ↑
通过强化学习训练语言模型进行自我纠正。
Aviral Kumar、Vincent Zhuang、Rishabh Agarwal、Yi Su、JD Co-Reyes、Avi Singh、Kate Baumli、Shariq Iqbal、Colton Bishop、Rebecca Roelofs、Lei M.Zhang、Kay McKinney、Disha Shrivastava、Cosmin Paduraru、George Tucker、Doina Precup,费耶尔·贝巴哈尼,亚历山大·浮士德。预印本'24
OpenAI o1.
开放人工智能团队。技术报告'24
Agent Q:自主 AI 代理的高级推理和学习。
普拉纳夫·普塔、埃德蒙·米尔斯、纳曼·加尔格、苏米特·莫特瓦尼、切尔西·芬恩、迪维扬什·加尔格、拉斐尔·拉法洛夫。预印本'24
DotaMath:通过代码辅助和数学推理自我修正来分解思想。 [代码]
李成鹏,董官廷,薛明峰,彭茹,王翔,刘大一恒。预印本'24
LLM-ARC:通过自动推理评论家增强法学硕士。
阿迪亚·卡扬普尔、凯拉什·萨拉瓦纳库玛、维克多·巴雷斯、詹妮弗·楚-卡罗尔、大卫·梅尔维尔、大卫·费鲁奇。预印本'24
Q*:通过深思熟虑的规划改进法学硕士的多步骤推理。
王超杰,邓彦辰,吕志毅,严水成,安波。预印本'24
思想缓冲区:大型语言模型的思想增强推理。 [代码]
杨凌,余兆晨,张天军,曹诗一,徐敏凯,张文涛,Joseph E. Gonzalez,崔斌。预印本'24
通过想象力、探索和批评实现法学硕士的自我完善。
叶天、彭宝林、宋林峰、金丽峰、于殿、米海涛、于东。预印本'24
自玩对抗性语言游戏增强 LLM 推理能力。
程鹏宇、胡天浩、徐涵、张志松、戴勇、韩雷、杜南。预印本'24
评估数学推理的准确性。
夏士杰,李雪峰,刘益新,吴同爽,刘鹏飞。预印本'24
通过偏好树提升法学硕士推理通才。
袁立凡、崔甘曲、王汉斌、丁宁、王兴耀、邓佳、单博吉、陈慧敏、谢若冰、林彦凯、刘正浩、周博文、彭浩、刘志远、孙茂松。预印本'24
LLM3:基于大型语言模型的任务和具有运动失败推理的运动规划。 [代码]
王树,韩牧之,焦子元,张泽宇,吴英念,朱松春,刘航新。 IROS'24
Quiet-STAR:语言模型可以在说话之前自学思考。
埃里克·泽利克曼、乔治·哈里克、邵一嘉、瓦鲁纳·贾亚西里、尼克·哈伯、诺亚·D·古德曼。预印本'24
GLoRe:何时、何地以及如何通过全球和本地改进改进法学硕士推理。
亚历克斯·哈夫里拉 (Alex Havrilla)、沙拉斯·拉帕西 (Sharath Raparthy)、克里斯托福鲁斯·纳尔姆潘蒂斯 (Christoforus Nalmpantis)、简·德维迪-于 (Jane Dwivedi-Yu)、马克西姆·朱拉文斯基 (Maksym Zhuravinskyi)、埃里克·汉布罗 (Eric Hambro)、罗伯塔·雷诺 (Roberta Railneau)。 ICML'24
无需提示的思维链推理。
王学智,周丹尼.预印本'24
V-STAR:为自学推理者培训验证者。
阿里安·胡赛尼、袁星迪、尼古拉·马尔金、亚伦·库尔维尔、亚历山德罗·索尔多尼、瑞沙布·阿加瓦尔。预印本'24
InternLM-Math:开放数学大型语言模型以实现可验证的推理。
应怀远、张硕、李林洋、周哲健、邵云帆、费兆业、马一川、洪嘉伟、刘奎坤、王子怡、王玉栋、吴子健、李帅斌、周峰哲、刘宏伟、张松阳、张文伟、严航、邱西鹏、王佳玉、陈凯、林大华。预印本'24
自我发现:大型语言模型自组成推理结构。
Pei Zhou、Jay Pujara、Xiang Ren、Xinyun Chen、Heng-Tze Cheng、Quoc V. Le、Ed H. Chi、Denny Zhou、Swaroop Mishra、Huaixiu Steven Cheng。预印本'24
DeepSeekMath:突破开放语言模型中数学推理的极限。
邵志宏、王培毅、朱启浩、徐润鑫、宋俊晓、毕晓、张浩伟、张铭传、李YK、吴勇、郭大亚。预印本'24
使用大型语言模型进行 K 级推理。
张亚东、毛绍光、葛涛、王迅、夏艳、兰曼、魏福如。预印本'24
通过抽象链推理有效使用工具。
高斯林、Jane Dwivedi-Yu、Ping Yu、Xiaoqing Ellen Tan、Ramakanth Pasunuru、Olga Golovneva、Koustuv Sinha、Asli Celikyilmaz、Antoine Bosselut、王天禄。预印本'24
通过互动演示教授语言模型以自我改进。
肖宇、彭宝林、米歇尔·加莱、高剑锋、周宇。 NAACL'24
通过逻辑增强大型语言模型中的零镜头思想链推理。 [代码]
赵旭峰、李梦迪、卢文浩、Cornelius Weber、Jae Hee Lee、Kun Chu、Stefan Wermter。科林'24
验证链减少了大型语言模型中的幻觉。
Shehzaad Dhuliawala、Mojtaba Komeili、Jing Xu、Roberta Raileanu、Xian Li、Asli Celikyilmaz、Jason Weston。 ACL'24 调查结果
思想骨架:大型语言模型可以进行并行解码。
宁雪飞,林子楠,周子轩,杨华中,王宇。 ICLR'24
问题分解提高了模型生成推理的可信度。 [代码]
安什·拉达克里希南、卡琳娜·阮、安娜·陈、卡罗尔·陈、卡森·丹尼森、丹尼·埃尔南德斯、埃辛·杜姆斯、埃文·胡宾格、杰克逊·凯尼恩、卡米利·卢科斯休特、牛顿·程、尼古拉斯·约瑟夫、尼古拉斯·希弗、奥利弗·劳施、山姆·麦坎德利什、谢尔·埃尔·肖克、塔梅拉兰纳姆、蒂姆·麦克斯韦、文卡特萨钱德拉塞卡兰、扎克·哈特菲尔德-多兹、贾里德·卡普兰、扬·布劳纳、塞缪尔·R·鲍曼、伊桑·佩雷斯。预印本'23
让我们逐步验证一下。
亨特·莱特曼、维尼特·科萨拉朱、尤拉·布尔达、哈里·爱德华兹、鲍文·贝克、泰迪·李、扬·雷克、约翰·舒尔曼、伊利亚·苏茨克弗、卡尔·科布。 ICLR'24
REFINER:中间表示的推理反馈。 [项目] [代码]
Debjit Paul、Mete Ismayilzada、Maxime Peyrard、Beatriz Borges、Antoine Bosselut、Robert West、Boi Faltings。 EACL'24
大型语言模型的思想链主动提示。 [代码]
刁世哲,王鹏程,林勇,张桐。前交叉韧带'24
作为归纳推理机的语言模型。
杨宗林、董立、杜新亚、程浩、Erik Cambria、刘晓东、高剑峰、魏福如。 EACL'24
促进 LLM 推理:通过强化上下文剪枝突破少样本学习的极限。
黄希杰,张莉娜,程光廷,毛杨。预印本'23
Logic-LM:使用符号求解器增强大型语言模型的可信逻辑推理能力。 [代码]
潘良明、阿隆·阿尔巴拉克、王欣怡、王威廉杨。 EMNLP'23 调查结果
思想递归:使用语言模型进行多上下文推理的分而治之方法。 [代码] [海报]
李秀灿、金健熙。 ACL'23 调查结果
用语言模型推理就是用世界模型规划。
郝世波,谷一,马浩迪,洪嘉华,王振,王喆,胡志婷。 EMNLP'23
通过思维链提示推理内隐情感。 [代码]
浩飞,李波波,刘谦,李东兵,李飞,蔡达成。前交叉韧带'23
思想之树:用大型语言模型故意解决问题。 [代码]
姚舜宇、于殿、赵杰弗里、伊扎克·沙夫兰、托马斯·L·格里菲斯、曹元、卡蒂克·纳拉辛汉。神经IPS'23
SatLM:使用声明性提示的满意度辅助语言模型。 [代码]
夕野、陈巧初、伊西尔·迪利格、格雷格·德雷特。神经IPS'23
ART:大型语言模型的自动多步推理和工具使用。
巴尔加维·帕兰贾普、斯科特·伦德伯格、萨米尔·辛格、汉纳内·哈吉什尔兹、卢克·泽特尔莫耶、马可·图利奥·里贝罗。预印本'23
通过标记数据的思想链自动提示增强和选择。 [代码]
岑嘉顺,刁世哲,张桐。 EMNLP'23 调查结果
综合提示:为大型语言模型生成思想链演示。
邵志宏,宫业云,沉业龙,黄敏烈,段楠,陈伟柱。 ICML'23
忠实的思维链推理。
Qing Lyu、Shreya Havaldar、Adam Stein、张莉、Delip Rao、Eric Wong、Marianna Apidianaki、Chris Callison-Burch。 IJCNLP-AACL'23
重新思考检索:忠实的大语言模型推理。
何航峰,张宏明,丹·罗斯。预印本'23
LAMBADA:自然语言自动推理的向后链接。
Seyed Mehran Kazemi、Najoung Kim、Deepti Bhatia、徐鑫、Deepak Ramachandran。前交叉韧带'23
针对知识密集型多步骤问题的交叉检索与思想链推理。 [代码]
哈什·特里维迪 (Harsh Trivedi)、尼兰詹·巴拉苏布拉马尼亚 (Niranjan Balasubramanian)、图沙尔·科特 (Tushar Khot)、阿什什·萨巴瓦尔 (Ashish Sabharwal)。前交叉韧带'23
大型语言模型是具有自我验证功能的推理机。 [代码]
翁宜轩,朱敏君,何世柱,刘康,赵军。 EMNLP'23 调查结果
检索器增强语言模型可以推理吗?检索器和语言模型之间的指责游戏。 [代码]
帕里沙德·贝南·加德尔、圣地亚哥·米雷、西瓦·雷迪。 EMNLP'23 调查结果
有效情境学习的补充解释。
Xi Ye、Srinivasan Iyer、Asli Celikylmaz、Ves Stoyanov、Greg Durrett、Ramakanth Pasunuru。 ACL'23 调查结果
思路提示:将计算与数值推理任务的推理分开。 [代码]
陈文虎,马雪光,王欣怡,威廉·W·科恩。 TMLR'23
通过正确的实例化生成无监督的解释。
程思杰,吴志勇,陈江杰,李志兴,刘洋,孔令鹏。 AAAI'23
PAL:程序辅助语言模型。 [项目] [代码]
高鲁宇、Aman Madaan、周书彦、Uri Alon、刘鹏飞、杨一鸣、Jamie Callan、Graham Neubig。 ICML'23
通过合作推理诱导的语言模型解决数学应用问题。 [代码]
朱新宇,王俊杰,张琳,张宇翔,甘如意,张嘉兴,杨宇九。前交叉韧带'23
大型语言模型可以自我改进。
黄嘉欣,顾世祥,侯乐,吴跃新,王学智,于洪坤,韩家伟。 EMNLP'23
Mind's Eye:通过模拟进行基础语言模型推理。
刘瑞波、贾森·魏、顾世翔、吴德彦、Soroush Vosoughi、Claire Cui、Denny Zhou、Andrew M. Dai。 ICLR'23
大型语言模型中的自动思维提示链。 [代码]
张卓胜、张阿斯顿、穆里、亚历克斯·斯莫拉。 ICLR'23
语言模型是多语言思维链推理机。
Freda Shi、Mirac Suzgun、Markus Freitag、Xuezhi Wang、Suraj Srivats、Soroush Vosoughi、Hyung Won Chung、Yi Tay、Sebastian Ruder、Denny Zhou、Dipanjan Das、Jason Wei。 ICLR'23
问我任何问题:提示语言模型的简单策略。 [代码]
Simran Arora、Avanika Narayan、Mayee F. Chen、Laurel Orr、Neel Guha、Kush Bhatia、Ines Chami、Frederic Sala、Christopher Ré。 ICLR'23
通过半结构化数学推理的策略梯度进行动态提示学习。 [项目] [代码]
潘璐、邱亮、张凯伟、吴英念、朱松春、Tanmay Rajpurohit、Peter Clark、Ashwin Kalyan。 ICLR'23
使用逐步感知验证器使大型语言模型成为更好的推理器。
李逸飞,林泽琪,张世卓,付强,陈蓓,楼建光,陈伟柱。前交叉韧带'23
从最少到最多的提示可以在大型语言模型中进行复杂的推理。
Denny Zhou、Nathanael Schärli、Le Hou、Jason Wei、Nathan Scales、Xuezhi Wang、Dale Schuurmans、Claire Cui、Olivier Bousquet、Quoc Le、Ed Chi。 ICLR'23
自我一致性改善了语言模型中的思维链推理。
王学智、Jason Wei、Dale Schuurmans、Quoc Le、Ed Chi、Sharan Narang、Aakanksha Chowdhery、Denny Zhou。 ICLR'23
常识推理的检索增强:统一方法。 [代码]
于文浩,朱晨光,张志涵,王硕航,张卓胜,方宇伟,姜孟。 EMNLP'22
代码的语言模型是少数常识学习者。 [代码]
阿曼·马丹 (Aman Madaan)、周书彦 (Shuyan Zhou)、乌里·阿隆 (Uri Alon)、杨一鸣 (Yiming Yang)、格雷厄姆·纽比格 (Graham Neubig)。 EMNLP'22
用语言模型解决定量推理问题。 [博客]
Aitor Lewkowycz、Anders Andreassen、David Dohan、Ethan Dyer、Henryk Michalewski、Vinay Ramasesh、Ambrose Slone、Cem Anil、Imanol Schlag、Theo Gutman-Solo、Yuhuai Wu、Behnam Neyshabur、Guy Gur-Ari、Vedant Misra。神经IPS'22
大型语言模型仍然无法规划。 [代码]
卡蒂克·瓦尔梅卡姆、阿尔贝托·奥尔莫、萨拉斯·斯里德哈兰、苏巴拉奥·坎巴姆帕蒂。神经IPS'22
大型语言模型是零样本推理机。
小岛武、顾世翔、马歇尔·里德、松尾裕、岩泽佑介。神经IPS'22
迭代提示思想链的预训练语言模型。 [代码]
王博士,邓翔,孙焕。 EMNLP'22
思维链提示引发大型语言模型中的推理。 [博客]
Jason Wei、王学智、Dale Schuurmans、Maarten Bosma、Brian Ichter、Fei Xia、Ed Chi、Quoc Le、Denny Zhou。神经IPS'22
↑ 返回顶部 ↑
MathScale:数学推理的缩放指令调整。
唐正阳,张星星,王本友,魏福如。预印本'24
基于形式逻辑的合成语料库学习演绎推理。 [代码]
森下辉文、森尾岳、山口敦希、曾川康弘。 ICML'23
符号思维链蒸馏:小模型也能一步步“思考” [代码]
柳年 Harold Li、Jack Hessel、Youngjae Yu、Xiang Ren、Kai-Wei Chang、Yejin Choi。前交叉韧带'23
将较小的语言模型专门用于多步骤推理。
付耀、彭浩、欧力图、Ashish Sabharwal、Tushar Khot。 ICML'23
大型语言模型是推理老师。 [代码]
何南奎、劳拉·施密德、尹世英。前交叉韧带'23
教授小语言模型推理。
露西·夏洛特·玛格斯特、乔纳森·马林森、雅库布·阿达梅克、埃里克·马尔米、阿利亚克塞·塞维林。 ACL'23 短
通过语义分解将大型语言模型的多步推理能力提炼成较小的模型。
库马尔·施里达尔、亚历山德罗·斯托尔福、姆林玛亚·萨尚。 ACL'23 调查结果
扩展指令微调语言模型。
Hyung Won Chung、Le Hou、Shayne Longpre、Barret Zoph、Yi Tay、William Fedus、Eric Li、Xuezhi Wang、Mostafa Dehghani、Siddhartha Brahma、Albert Webson、Shiyang Shane Gu、Zhuyun Dai、Mirac Suzgun、Xinyun Chen、Aakanksha Chowdhery、 Sharan Narang、Gaurav Mishra、Adams Yu、Vincent Zhao、Yanping Huang、Andrew Dai、Hongkun Yu、 Slav Petrov、Ed H. Chi、Jeff Dean、Jacob Devlin、Adam Roberts、Denny Zhou、Quoc V. Le、Jason Wei。 JMLR'22
↑ 返回顶部 ↑
视觉画板:草图作为多模态语言模型的视觉思想链。 [项目] [代码]
胡雨诗、史维佳、傅星宇、丹·罗斯、马里·奥斯滕多夫、卢克·泽特莫耶、诺亚·A·史密斯、兰杰·克里希纳。预印本'24
基于图表的推理:将能力从 LLM 转移到 VLM。
维克多·卡邦、哈桑·曼苏尔、刘芳宇、拉胡尔·阿拉里卡特、吉尔斯·巴奇勒、陈金东、阿布汉舒·夏尔马。 NAACL'24 调查结果
SpatialVLM:赋予视觉语言模型空间推理能力。 [项目]
陈博源、徐卓、Sean Kirmani、Brian Ichter、Danny Driess、Pete Florence、Dorsa Sadigh、Leonidas Guibas、Fei Xia。 CVPR'24
Chain-of-Table:在推理链中进化表以实现表理解。
王子龙、张浩、李春亮、Julian Martin Eisenschlos、Vincent Perot、王子峰、Lesly Miculicich、Yasuhisa Fujii、尚静波、Chen-Yu Lee、Tomas Pfister。 ICLR'24
多模式法学硕士的链接上下文学习。 [代码]
泰岩,范伟辰,张兆,朱峰,赵锐,刘紫薇。 CVPR'24
推理中的双子座:揭示多模态大语言模型中的常识。
王玉清、赵云.预印本'23
G-LLaVA:用多模态大语言模型解决几何问题。
高家辉、皮仁杰、张吉鹏、叶家成、钟万军、王宇飞、洪兰清、韩建华、徐航、李振国、孔令鹏。预印本'23
Chameleon:使用大型语言模型进行即插即用的组合推理。 [项目] [代码]
卢潘、彭宝林、程浩、Michel Galley、张凯伟、吴英年、朱松春、高剑锋。神经IPS'23
MM-REACT:提示 ChatGPT 进行多模式推理和行动。 [项目] [代码] [演示]
杨正元、李林杰、王剑锋、Kevin Lin、Ehsan Azarnasab、Faisal Ahmed、Zi Cheng Liu、Ce Liu、Michael Zeng、Lijuan Wang。预印本'23
ViperGPT:通过 Python 执行进行视觉推理以进行推理。 [项目] [代码]
迪达克·苏里斯、萨奇特·梅农、卡尔·冯德里克。 ICCV'23
Visual ChatGPT:使用 Visual Foundation 模型进行对话、绘图和编辑。 [代码]
吴晨飞,尹胜明,齐伟振,王晓东,唐泽成,段楠。预印本'23
语言模型中的多模态思维链推理。 [代码]
张卓胜、张阿斯顿、李穆、赵海、George Karypis、Alex Smola。预印本'23
可视化编程:无需训练的组合视觉推理。 [项目] [代码]
坦梅·古普塔,阿尼鲁达·肯巴维。 CPVR'23
苏格拉底模型:用语言组成零样本多模态推理。 [项目] [代码]
Andy Zeng、Maria Attarian、Brian Ichter、Krzysztof Choromanski、Adrian Wong、Stefan Welker、Federico Tombari、Aveek Purohit、Michael Ryoo、Vikas Sindhwani、Johnny Lee、Vincent Vanhoucke、Pete Florence。 ICLR'23
↑ 返回顶部 ↑
↑ 返回顶部 ↑
↑ 返回顶部 ↑
/abs/
格式)。如果您做错了什么,请不要担心,它会为您解决!