Collection organisée d'articles et de ressources sur la façon de débloquer la capacité de raisonnement des LLM et MLLM.
Consultez également Awesome-Controllable-Diffusion .
À l'attention des responsables des grands modèles linguistiques : une enquête. [code]
Zifan Zheng, Yezhaohui Wang, Yuxin Huang, Shichao Song, Bo Tang, Feiyu Xiong, Zhiyu Li. Prépublication'24
Cohérence interne et auto-évaluation dans les grands modèles linguistiques : une enquête. [code]
Xun Liang, Shichao Song, Zifan Zheng, Hanyu Wang, Qingchen Yu, Xunkai Li, Rong-Hua Li, Feiyu Xiong, Zhiyu Li. Prépublication'24
Résolution d'énigmes à l'aide du raisonnement de grands modèles de langage : une enquête. [code]
Panagiotis Giadikiaroglou, Maria Lymperaiou, Giorgos Filandrianos, Giorgos Stamou. Prépublication'24
Grands modèles linguistiques pour le raisonnement mathématique : progrès et défis.
Janice Ahn, Rishu Verma, Renze Lou, Di Liu, Rui Zhang, Wenpeng Yin. ACL'24
Vers le raisonnement dans les grands modèles de langage : une enquête. [code]
Jie Huang, Kevin Chen-Chuan Chang. Résultats de l'ACL'23
Raisonnement avec l'invite de modèle de langage : une enquête. [code]
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. ACL'23
↑ Retour en haut ↑
De Medprompt à o1 : Exploration de stratégies d'exécution pour les problèmes médicaux et au-delà.
Harsha Nori, Naoto Usuyama, Nicholas King, Scott Mayer McKinney, Xavier Fernandes, Sheng Zhang, Eric Horvitz. Prépublication'24
Vers CoT ou pas vers CoT ? La chaîne de pensée aide principalement sur le raisonnement mathématique et symbolique.
Zayne Sprague, Fangcong Yin, Juan Diego Rodriguez, Dongwei Jiang, Manya Wadhwa, Prasann Singhal, Xinyu Zhao, Xi Ye, Kyle Mahowald, Greg Durrett. Prépublication'24
Les LLM peuvent-ils générer de nouvelles idées de recherche ? Une étude humaine à grande échelle avec plus de 100 chercheurs en PNL.
Chenglei Si, Diyi Yang, Tatsunori Hashimoto. Prépublication'24
Un aperçu du biais symbolique : les grands modèles de langage ne sont pas encore de véritables raisonneurs. [code]
Bowen Jiang, Yangxinyu Xie, Zhuoqun Hao, Xiaomeng Wang, Tanwi Mallick, Weijie J. Su, Camillo J. Taylor, Dan Roth. EMNLP'24
Tête d'itération : une étude mécaniste de la chaîne de pensée
Vivien Cabannes, Charles Arnal, Wassim Bouaziz, Alice Yang, François Charton, Julia Kempe. NeurIPS'24
Les grands modèles de langage effectuent-ils de manière latente un raisonnement multi-sauts ?
Sohee Yang, Elena Gribovskaya, Nora Kassner, Mor Geva, Sebastian Riedel. ACL'24
L’ordre des prémisses est important dans le raisonnement avec de grands modèles de langage.
Xinyun Chen, Ryan A. Chi, Xuezhi Wang, Denny Zhou. ICML'24
L'impact de la longueur des étapes de raisonnement sur les grands modèles de langage.
Mingyu Jin, Qinkai Yu, Dong Shu, Haiyan Zhao, Wenyue Hua, Yanda Meng, Yongfeng Zhang, Mengnan Du. Résultats de l'ACL'24
Les grands modèles de langage ne peuvent pas encore corriger automatiquement le raisonnement.
Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou. ICLR'24
À quelle étape de la formation les données de code aident-elles au raisonnement LLM ?
Yingwei Ma, Yue Liu, Yue Yu, Yuanliang Zhang, Yu Jiang, Changjian Wang, Shanshan Li. ICLR'24
Mesurer la fidélité dans le raisonnement en chaîne de pensée.
Tamera Lanham, Anna Chen, Ansh Radhakrishnan, Benoit Steiner, Carson Denison, Danny Hernandez, Dustin Li, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Karina Nguyen, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Robin Larson , Sam McCandlish, Sandipan Kundu, Saurav Kadavath, Shannon Yang, Thomas Henighan, Timothy Maxwell, Timothy Telleen-Lawton, Tristan Hume, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez. Prépublication'23
Foi et destin : limites des transformateurs sur la compositionnalité.
Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jiang, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi. NeurIPS'23
Les modèles linguistiques ne disent pas toujours ce qu'ils pensent : des explications infidèles dans une chaîne de pensée. [code]
Miles Turpin, Julian Michael, Ethan Perez, Samuel R. Bowman. NeurIPS'23
Une évaluation multitâche, multilingue et multimodale de ChatGPT sur le raisonnement, les hallucinations et l'interactivité.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. AACL'23
Les grands modèles de langage peuvent être facilement distraits par un contexte non pertinent.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. ICML'23
Après réflexion, ne réfléchissons pas étape par étape ! Biais et toxicité dans le raisonnement Zero-Shot.
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang. ACL'23
Vers une compréhension de l'incitation à la chaîne de pensée : une étude empirique de ce qui compte. [code]
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun. ACL'23
Tâches difficiles de BIG-Bench et question de savoir si la chaîne de pensée peut les résoudre. [code]
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, Jason Wei. Résultats de l'ACL'23
Capacités émergentes des grands modèles de langage. [blog]
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. TMLR'22
Les modèles linguistiques peuvent-ils apprendre des explications en contexte ?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie CY Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. EMNLP'22
↑ Retour en haut ↑
Formation de modèles linguistiques à l'auto-correction via l'apprentissage par renforcement.
Aviral Kumar, Vincent Zhuang, Rishabh Agarwal, Yi Su, JD Co-Reyes, Avi Singh, Kate Baumli, Shariq Iqbal, Colton Bishop, Rebecca Roelofs, Lei M. Zhang, Kay McKinney, Disha Shrivastava, Cosmin Paduraru, George Tucker, Doina Précup, Feryal Behbahani, Aleksandra Faust. Prépublication'24
OpenAI o1.
Équipe IA ouverte. Rapport technique'24
Agent Q : Raisonnement et apprentissage avancés pour les agents d'IA autonomes.
Pranav Putta, Edmund Mills, Naman Garg, Sumeet Motwani, Chelsea Finn, Divyansh Garg, Rafael Rafailov. Prépublication'24
DotaMath : Décomposition de la pensée avec assistance au code et autocorrection pour le raisonnement mathématique. [code]
Chengpeng Li, Guanting Dong, Mingfeng Xue, Ru Peng, Xiang Wang, Dayiheng Liu. Prépublication'24
LLM-ARC : Amélioration des LLM avec un critique de raisonnement automatisé.
Aditya Kalyanpur, Kailash Saravanakumar, Victor Barres, Jennifer Chu-Carroll, David Melville, David Ferrucci. Prépublication'24
Q* : Améliorer le raisonnement en plusieurs étapes pour les LLM avec la planification délibérative.
Chaojie Wang, Yanchen Deng, Zhiyi Lv, Shuicheng Yan, An Bo. Prépublication'24
Tampon de pensées : raisonnement augmenté par la pensée avec de grands modèles de langage. [code]
Ling Yang, Zhaochen Yu, Tianjun Zhang, Shiyi Cao, Minkai Xu, Wentao Zhang, Joseph E. Gonzalez, Bin Cui. Prépublication'24
Vers l'auto-amélioration des LLM via l'imagination, la recherche et la critique.
Ye Tian, Baolin Peng, Linfeng Song, Lifeng Jin, Dian Yu, Haitao Mi, Dong Yu. Prépublication'24
Le jeu de langage contradictoire autonome améliore le raisonnement LLM.
Pengyu Cheng, Tianhao Hu, Han Xu, Zhisong Zhang, Yong Dai, Lei Han, Nan Du. Prépublication'24
Évaluation du raisonnement mathématique au-delà de la précision.
Shijie Xia, Xuefeng Li, Yixin Liu, Tongshuang Wu, Pengfei Liu. Prépublication'24
Faire progresser les généralistes du raisonnement LLM avec des arbres de préférences.
Lifan Yuan, Ganqu Cui, Hanbin Wang, Ning Ding, Xingyao Wang, Jia Deng, Boji Shan, Huimin Chen, Ruobing Xie, Yankai Lin, Zhenghao Liu, Bowen Zhou, Hao Peng, Zhiyuan Liu, Maosong Sun. Prépublication'24
LLM3 : Planification de tâches et de mouvements basée sur un grand modèle de langage avec raisonnement en cas d'échec de mouvement. [code]
Shu Wang, Muzhi Han, Ziyuan Jiao, Zeyu Zhang, Ying Nian Wu, Song-Chun Zhu, Hangxin Liu. IROS'24
Quiet-STAR : les modèles linguistiques peuvent s'apprendre à réfléchir avant de parler.
Eric Zelikman, Georges Harik, Yijia Shao, Varuna Jayasiri, Nick Haber, Noah D. Goodman. Prépublication'24
GLoRe : Quand, où et comment améliorer le raisonnement LLM via des raffinements globaux et locaux.
Alex Havrilla, Sharath Raparthy, Christoforus Nalmpantis, Jane Dwivedi-Yu, Maksym Zhuravinskyi, Eric Hambro, Roberta Railneau. ICML'24
Raisonnement en chaîne de pensée sans invite.
Xuezhi Wang, Denny Zhou. Prépublication'24
V-STAR : Formation de vérificateurs pour raisonneurs autodidactes.
Arian Hosseini, Xingdi Yuan, Nikolay Malkin, Aaron Courville, Alessandro Sordoni, Rishabh Agarwal. Prépublication'24
InternLM-Math : modèles de langage mathématiques ouverts vers un raisonnement vérifiable.
Huaiyuan Ying, Shuo Zhang, Linyang Li, Zhejian Zhou, Yunfan Shao, Zhaoye Fei, Yichuan Ma, Jiawei Hong, Kuikun Liu, Ziyi Wang, Yudong Wang, Zijian Wu, Shuaibin Li, Fengzhe Zhou, Hongwei Liu, Songyang Zhang, Wenwei Zhang , Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin. Prépublication'24
Auto-découverte : grands modèles de langage, structures de raisonnement auto-composées.
Pei Zhou, Jay Pujara, Xiang Ren, Xinyun Chen, Heng-Tze Cheng, Quoc V. Le, Ed H. Chi, Denny Zhou, Swaroop Mishra, Huaixiu Steven Zheng. Prépublication'24
DeepSeekMath : repousser les limites du raisonnement mathématique dans les modèles de langage ouvert.
Zhihong Shao, Peiyi Wang, Qihao Zhu, Runxin Xu, Junxiao Song, Xiao Bi, Haowei Zhang, Mingchuan Zhang, YK Li, Y. Wu, Daya Guo. Prépublication'24
Raisonnement de niveau K avec de grands modèles de langage.
Yadong Zhang, Shaoguang Mao, Tao Ge, Xun Wang, Yan Xia, Man Lan, Furu Wei. Prépublication'24
Utilisation efficace des outils avec raisonnement en chaîne d'abstraction.
Silin Gao, Jane Dwivedi-Yu, Ping Yu, Xiaoqing Ellen Tan, Ramakanth Pasunuru, Olga Golovneva, Koustuv Sinha, Asli Celikyilmaz, Antoine Bosselut, Tianlu Wang. Prépublication'24
Enseigner des modèles de langage pour s'auto-améliorer grâce à des démonstrations interactives.
Xiao Yu, Baolin Peng, Michel Galley, Jianfeng Gao, Zhou Yu. NAACL'24
Améliorer le raisonnement en chaîne de pensée Zero-Shot dans les grands modèles de langage grâce à la logique. [code]
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. COLING'24
La chaîne de vérification réduit les hallucinations dans les grands modèles de langage.
Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston. Résultats de l'ACL'24
Squelette de pensée : les grands modèles de langage peuvent effectuer un décodage parallèle.
Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang. ICLR'24
La décomposition des questions améliore la fidélité du raisonnement généré par le modèle. [code]
Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez. Prépublication'23
Vérifions étape par étape.
Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman, Ilya Sutskever, Karl Cobbe. ICLR'24
REFINER : Retour de raisonnement sur les représentations intermédiaires. [projet] [code]
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings. EACL'24
Invite active avec chaîne de pensée pour les grands modèles de langage. [code]
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang. ACL'24
Les modèles linguistiques comme raisonneurs inductifs.
Zonglin Yang, Li Dong, Xinya Du, Hao Cheng, Erik Cambria, Xiaodong Liu, Jianfeng Gao, Furu Wei. EACL'24
Stimuler le raisonnement LLM : repoussez les limites de l'apprentissage en quelques étapes avec un élagage en contexte renforcé.
Xijie Huang, Li Lyna Zhang, Kwang-Ting Cheng, Mao Yang. Prépublication'23
Logic-LM : doter de grands modèles de langage avec des solveurs symboliques pour un raisonnement logique fidèle. [code]
Liangming Pan, Alon Albalak, Xinyi Wang, William Yang Wang. Résultats de l'EMNLP'23
Récursion de la pensée : une approche diviser pour mieux régner du raisonnement multi-contextuel avec des modèles de langage. [code] [affiche]
Soochan Lee, Gunhee Kim. Résultats de l'ACL'23
Raisonner avec un modèle linguistique, c'est planifier avec un modèle mondial.
Shibo Hao, Yi Gu, Haodi Ma, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu. EMNLP'23
Raisonner un sentiment implicite avec une chaîne de pensée. [code]
Hao Fei, Bobo Li, Qian Liu, Lidong Bing, Fei Li, Tat-Seng Chua. ACL'23
Arbre de pensées : résolution délibérée de problèmes avec de grands modèles de langage. [code]
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. NeurIPS'23
SatLM : modèles de langage assistés par satisfaction utilisant des invites déclaratives. [code]
Xi Ye, Qiaochu Chen, Isil Dillig, Greg Durrett. NeurIPS'23
ART : raisonnement automatique en plusieurs étapes et utilisation d'outils pour de grands modèles de langage.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. Prépublication'23
Augmentation et sélection automatiques des invites avec chaîne de pensée à partir de données étiquetées. [code]
KaShun Shum, Shizhe Diao, Tong Zhang. Résultats de l'EMNLP'23
Invite synthétique : génération de démonstrations de chaîne de pensée pour de grands modèles de langage.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weizhu Chen. ICML'23
Raisonnement fidèle en chaîne de pensée.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. IJCNLP-AACL'23
Repenser avec la récupération : inférence fidèle d'un grand modèle de langage.
Hangfeng He, Hongming Zhang, Dan Roth. Prépublication'23
LAMBADA : Chaînage arrière pour le raisonnement automatisé en langage naturel.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. ACL'23
Récupération entrelacée avec raisonnement en chaîne de pensée pour des questions en plusieurs étapes à forte intensité de connaissances. [code]
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. ACL'23
Les grands modèles de langage sont des raisonneurs avec auto-vérification. [code]
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. Résultats de l'EMNLP'23
Les modèles de langage augmentés par Retriever peuvent-ils raisonner ? Le jeu du blâme entre le Retriever et le modèle linguistique. [code]
Parishad BehnamGhader, Santiago Miret, Siva Reddy. Résultats de l'EMNLP'23
Explications complémentaires pour un apprentissage efficace en contexte.
Xi Ye, Srinivasan Iyer, Asli Celikyilmaz, Ves Stoyanov, Greg Durrett, Ramakanth Pasunuru. Résultats de l'ACL'23
Programme d'incitation à la réflexion : démêler le calcul du raisonnement pour les tâches de raisonnement numérique. [code]
Wenhu Chen, Xueguang Ma, Xinyi Wang, William W. Cohen. TMLR'23
Génération d'explications non supervisée via des instanciations correctes.
Sijie Cheng, Zhiyong Wu, Jiangjie Chen, Zhixing Li, Yang Liu, Lingpeng Kong. AAAI'23
PAL : Modèles de langage assistés par programme. [projet] [code]
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. ICML'23
Résoudre des problèmes de mots mathématiques via des modèles de langage induits par le raisonnement coopératif. [code]
Xinyu Zhu, Junjie Wang, Lin Zhang, Yuxiang Zhang, Ruyi Gan, Jiaxing Zhang, Yujiu Yang. ACL'23
Les grands modèles de langage peuvent s’auto-améliorer.
Jiaxin Huang, Shixiang Shane Gu, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. EMNLP'23
Mind's Eye : raisonnement fondé sur un modèle de langage grâce à la simulation.
Ruibo Liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai. ICLR'23
Chaîne de pensée automatique dans les grands modèles linguistiques. [code]
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola. ICLR'23
Les modèles linguistiques sont des raisonneurs de chaîne de pensée multilingues.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. ICLR'23
Demandez-moi n'importe quoi : une stratégie simple pour demander des modèles de langage. [code]
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré. ICLR'23
Apprentissage rapide dynamique via un gradient de politique pour le raisonnement mathématique semi-structuré. [projet] [code]
Pan Lu, Liang Qiu, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. ICLR'23
Faire de grands modèles linguistiques de meilleurs raisonneurs avec Step-Aware Verifier.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen. ACL'23
Les invites du moins au plus permettent un raisonnement complexe dans de grands modèles de langage.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Claire Cui, Olivier Bousquet, Quoc Le, Ed Chi. ICLR'23
L'autocohérence améliore le raisonnement en chaîne de pensée dans les modèles de langage.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. ICLR'23
Augmentation de la récupération pour le raisonnement de bon sens : une approche unifiée. [code]
Wenhao Yu, Chenguang Zhu, Zhihan Zhang, Shuohang Wang, Zhuosheng Zhang, Yuwei Fang, Meng Jiang. EMNLP'22
Les modèles linguistiques de code sont des apprenants de bon sens peu nombreux. [code]
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neubig. EMNLP'22
Résoudre des problèmes de raisonnement quantitatif avec des modèles linguistiques. [blog]
Aitor Lewkowycz, Anders Andreassen, David Dohan, Ethan Dyer, Henryk Michalewski, Vinay Ramasesh, Ambrose Slone, Cem Anil, Imanol Schlag, Theo Gutman-Solo, Yuhuai Wu, Behnam Neyshabur, Guy Gur-Ari, Vedant Misra. NeurIPS'22
Les grands modèles de langage ne peuvent toujours pas planifier. [code]
Karthik Valmeekam, Alberto Olmo, Sarath Sreedharan, Subbarao Kambhampati. NeurIPS'22
Les grands modèles de langage sont des raisonneurs Zero-Shot.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. NeurIPS'22
Modèles de langage pré-entraînés itérativement rapides pour la chaîne de pensée. [code]
Boshi Wang, Xiang Deng, Huan Sun. EMNLP'22
L'incitation à la chaîne de pensée suscite un raisonnement dans de grands modèles de langage. [blog]
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou. NeurIPS'22
↑ Retour en haut ↑
MathScale : réglage des instructions de mise à l'échelle pour le raisonnement mathématique.
Zhengyang Tang, Xingxing Zhang, Benyou Wang, Furu Wei. Prépublication'24
Apprentissage du raisonnement déductif à partir d'un corpus synthétique basé sur la logique formelle. [code]
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. ICML'23
Distillation symbolique de la chaîne de pensée : les petits modèles peuvent également « penser » étape par étape. [code]
Liunian Harold Li, Jack Hessel, Youngjae Yu, Xiang Ren, Kai-Wei Chang, Yejin Choi. ACL'23
Spécialisation de modèles de langage plus petits vers le raisonnement en plusieurs étapes.
Yao Fu, Hao Peng, Litu Ou, Ashish Sabharwal, Tushar Khot. ICML'23
Les grands modèles de langage sont des enseignants qui raisonnent. [code]
Namgyu Ho, Laura Schmid, Se-Young Yun. ACL'23
Enseigner à raisonner de petits modèles de langage.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn. ACL'23 Court
Distiller les capacités de raisonnement en plusieurs étapes de grands modèles de langage en modèles plus petits via des décompositions sémantiques.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. Résultats de l'ACL'23
Mise à l'échelle des modèles de langage affinés par les instructions.
Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason Wei. JMLR'22
↑ Retour en haut ↑
Visual Sketchpad : l'esquisse comme chaîne de pensée visuelle pour les modèles de langage multimodaux. [projet] [code]
Yushi Hu, Weijia Shi, Xingyu Fu, Dan Roth, Mari Ostendorf, Luke Zettlemoyer, Noah A Smith, Ranjay Krishna. Prépublication'24
Raisonnement basé sur des graphiques : transfert de capacités des LLM aux VLM.
Victor Carbune, Hassan Mansoor, Fangyu Liu, Rahul Aralikatte, Gilles Baechler, Jindong Chen, Abhanshu Sharma. Résultats de la NAACL'24
SpatialVLM : doter les modèles vision-langage de capacités de raisonnement spatial. [projet]
Boyuan Chen, Zhuo Xu, Sean Kirmani, Brian Ichter, Danny Driess, Pete Florence, Dorsa Sadigh, Leonidas Guibas, Fei Xia. CVPR'24
Chaîne de tables : évolution des tables dans la chaîne de raisonnement pour la compréhension des tables.
Zilong Wang, Hao Zhang, Chun-Liang Li, Julian Martin Eisenschlos, Vincent Perot, Zifeng Wang, Lesly Miculicich, Yasuhisa Fujii, Jingbo Shang, Chen-Yu Lee, Tomas Pfister. ICLR'24
Apprentissage Link-Context pour les LLM multimodaux. [code]
Yan Tai, Weichen Fan, Zhao Zhang, Feng Zhu, Rui Zhao, Ziwei Liu. CVPR'24
Gémeaux dans le raisonnement : dévoiler le bon sens dans les grands modèles de langage multimodaux.
Yuqing Wang, Yun Zhao. Prépublication'23
G-LLaVA : Résoudre des problèmes géométriques avec un grand modèle de langage multimodal.
Jiahui Gao, Renjie Pi, Jipeng Zhang, Jiacheng Ye, Wanjun Zhong, Yufei Wang, Lanqing Hong, Jianhua Han, Hang Xu, Zhenguo Li, Lingpeng Kong. Prépublication'23
Chameleon : raisonnement compositionnel Plug-and-Play avec de grands modèles de langage. [projet] [code]
Pan Lu, Baolin Peng, Hao Cheng, Michel Galley, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. NeurIPS'23
MM-REACT : inciter ChatGPT à effectuer un raisonnement et une action multimodales. [projet] [code] [démo]
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, Lijuan Wang. Prépublication'23
ViperGPT : Inférence visuelle via l'exécution Python pour le raisonnement. [projet] [code]
Didac Surís, Sachit Menon, Carl Vondrick. ICCV'23
Visual ChatGPT : parler, dessiner et éditer avec des modèles de base visuelle. [code]
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. Prépublication'23
Raisonnement multimodal en chaîne de pensée dans les modèles linguistiques. [code]
Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. Prépublication'23
Programmation visuelle : raisonnement visuel compositionnel sans formation. [projet] [code]
Tanmay Gupta, Aniruddha Kembhavi. CPVR'23
Modèles socratiques : composer un raisonnement multimodal Zero-Shot avec le langage. [projet] [code]
Andy Zeng, Maria Attarian, Brian Ichter, Krzysztof Choromanski, Adrian Wong, Stefan Welker, Federico Tombari, Aveek Purohit, Michael Ryoo, Vikas Sindhwani, Johnny Lee, Vincent Vanhoucke, Pete Florence. ICLR'23
↑ Retour en haut ↑
↑ Retour en haut ↑
↑ Retour en haut ↑
/abs/
s'il s'agit d'une publication arXiv).Ne vous inquiétez pas si vous faites quelque chose de mal, cela sera réparé pour vous !