Coleção selecionada de artigos e recursos sobre como desbloquear a capacidade de raciocínio de LLMs e MLLMs.
Verifique também Awesome-Controllable-Diffusion .
Atenção Chefes de Grandes Modelos de Linguagem: Uma Pesquisa. [código]
Zifan Zheng, Yezhaohui Wang, Yuxin Huang, Shichao Song, Bo Tang, Feiyu Xiong, Zhiyu Li. Pré-impressão'24
Consistência interna e autofeedback em grandes modelos de linguagem: uma pesquisa. [código]
Xun Liang, Shichao Song, Zifan Zheng, Hanyu Wang, Qingchen Yu, Xunkai Li, Rong-Hua Li, Feiyu Xiong, Zhiyu Li. Pré-impressão'24
Resolução de quebra-cabeças usando raciocínio de grandes modelos de linguagem: uma pesquisa. [código]
Panagiotis Giadikiaroglou, Maria Lymperaiou, Giorgos Filandrianos, Giorgos Stamou. Pré-impressão'24
Grandes modelos de linguagem para raciocínio matemático: avanços e desafios.
Janice Ahn, Rishu Verma, Renze Lou, Di Liu, Rui Zhang, Wenpeng Yin. ACL'24
Rumo ao raciocínio em grandes modelos de linguagem: uma pesquisa. [código]
Jie Huang, Kevin Chen-Chuan Chang. Descobertas do ACL'23
Raciocínio com solicitação de modelo de linguagem: uma pesquisa. [código]
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. ACL'23
↑ Voltar ao início ↑
Do Medprompt ao o1: Exploração de estratégias de tempo de execução para problemas de desafio médico e muito mais.
Harsha Nori, Naoto Usuyama, Nicholas King, Scott Mayer McKinney, Xavier Fernandes, Sheng Zhang, Eric Horvitz. Pré-impressão'24
CoT ou não CoT? A cadeia de pensamento ajuda principalmente na matemática e no raciocínio simbólico.
Zayne Sprague, Fangcong Yin, Juan Diego Rodriguez, Dongwei Jiang, Manya Wadhwa, Prasann Singhal, Xinyu Zhao, Xi Ye, Kyle Mahowald, Greg Durrett. Pré-impressão'24
Os LLMs podem gerar novas ideias de pesquisa? Um estudo humano em grande escala com mais de 100 pesquisadores de PNL.
Chenglei Si, Diyi Yang, Tatsunori Hashimoto. Pré-impressão'24
Uma espiada no preconceito do token: grandes modelos de linguagem ainda não são raciocinadores genuínos. [código]
Bowen Jiang, Yangxinyu Xie, Zhuoqun Hao, Xiaomeng Wang, Tanwi Mallick, Weijie J. Su, Camillo J. Taylor, Dan Roth. EMNLP'24
Cabeça de Iteração: Um Estudo Mecanístico da Cadeia de Pensamento
Vivien Cabannes, Charles Arnal, Wassim Bouaziz, Alice Yang, François Charton, Julia Kempe. NeurIPS'24
Os grandes modelos de linguagem executam latentemente o raciocínio multi-hop?
Sohee Yang, Elena Gribovskaya, Nora Kassner, Mor Geva, Sebastian Riedel. ACL'24
A ordem das premissas é importante no raciocínio com grandes modelos de linguagem.
Xinyun Chen, Ryan A. Chi, Xuezhi Wang, Denny Zhou. ICML'24
O impacto da extensão da etapa de raciocínio em grandes modelos de linguagem.
Mingyu Jin, Qinkai Yu, Dong Shu, Haiyan Zhao, Wenyue Hua, Yanda Meng, Yongfeng Zhang, Mengnan Du. Descobertas do ACL'24
Grandes modelos de linguagem ainda não conseguem corrigir o raciocínio.
Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou. ICLR'24
Em qual estágio de treinamento os dados de código ajudam no raciocínio do LLM?
Yingwei Ma, Yue Liu, Yue Yu, Yuanliang Zhang, Yu Jiang, Changjian Wang, Shanshan Li. ICLR'24
Medindo a fidelidade no raciocínio da cadeia de pensamento.
Tamera Lanham, Anna Chen, Ansh Radhakrishnan, Benoit Steiner, Carson Denison, Danny Hernandez, Dustin Li, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Karina Nguyen, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Robin Larson , Sam McCandlish, Sandipan Kundu, Saurav Kadavath, Shannon Yang, Thomas Henighan, Timothy Maxwell, Timothy Telleen-Lawton, Tristan Hume, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez. Pré-impressão'23
Fé e Destino: Limites dos Transformadores na Composicionalidade.
Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jiang, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi. NeurIPS'23
Os modelos de linguagem nem sempre dizem o que pensam: explicações infiéis na solicitação da cadeia de pensamento. [código]
Miles Turpin, Julian Michael, Ethan Perez, Samuel R. Bowman. NeurIPS'23
Uma avaliação multitarefa, multilíngue e multimodal do ChatGPT sobre raciocínio, alucinação e interatividade.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. AACL'23
Grandes modelos de linguagem podem ser facilmente distraídos por contextos irrelevantes.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. ICML'23
Pensando bem, não vamos pensar passo a passo! Viés e toxicidade no raciocínio zero-shot.
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang. ACL'23
Rumo à compreensão da solicitação da cadeia de pensamento: um estudo empírico do que importa. [código]
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun. ACL'23
Desafiando tarefas de grande bancada e se a cadeia de pensamento pode resolvê-las. [código]
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, Jason Wei. Descobertas do ACL'23
Habilidades emergentes de grandes modelos de linguagem. [blogue]
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. TMLR'22
Os modelos de linguagem podem aprender com explicações no contexto?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie CY Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. EMNLP'22
↑ Voltar ao início ↑
Treinamento de modelos de linguagem para autocorreção por meio de aprendizado por reforço.
Aviral Kumar, Vincent Zhuang, Rishabh Agarwal, Yi Su, JD Co-Reyes, Avi Singh, Kate Baumli, Shariq Iqbal, Colton Bishop, Rebecca Roelofs, Lei M. Zhang, Kay McKinney, Disha Shrivastava, Cosmin Paduraru, George Tucker, Doina Precup, Feryal Behbahani, Aleksandra Faust. Pré-impressão'24
OpenAI o1.
Equipe de IA aberta. Relatório Técnico'24
Agente Q: Raciocínio e aprendizagem avançados para agentes de IA autônomos.
Pranav Putta, Edmund Mills, Naman Garg, Sumeet Motwani, Chelsea Finn, Divyansh Garg, Rafael Rafailov. Pré-impressão'24
DotaMath: Decomposição do Pensamento com Assistência de Código e Autocorreção para Raciocínio Matemático. [código]
Chengpeng Li, Guanting Dong, Mingfeng Xue, Ru Peng, Xiang Wang, Dayiheng Liu. Pré-impressão'24
LLM-ARC: Aprimorando LLMs com um Crítico de Raciocínio Automatizado.
Aditya Kalyanpur, Kailash Saravanakumar, Victor Barres, Jennifer Chu-Carroll, David Melville, David Ferrucci. Pré-impressão'24
Q*: Melhorando o raciocínio em várias etapas para LLMs com planejamento deliberativo.
Chaojie Wang, Yanchen Deng, Zhiyi Lv, Shuicheng Yan, An Bo. Pré-impressão'24
Buffer de pensamentos: raciocínio aumentado por pensamento com grandes modelos de linguagem. [código]
Ling Yang, Zhaochen Yu, Tianjun Zhang, Shiyi Cao, Minkai Xu, Wentao Zhang, Joseph E. Gonzalez, Bin Cui. Pré-impressão'24
Rumo ao autoaperfeiçoamento de LLMs por meio da imaginação, pesquisa e crítica.
Ye Tian, Baolin Peng, Linfeng Song, Lifeng Jin, Dian Yu, Haitao Mi, Dong Yu. Pré-impressão'24
O jogo de linguagem adversária auto-jogo aprimora o raciocínio LLM.
Pengyu Cheng, Tianhao Hu, Han Xu, Zhisong Zhang, Yong Dai, Lei Han, Nan Du. Pré-impressão'24
Avaliando o raciocínio matemático além da precisão.
Shijie Xia, Xuefeng Li, Yixin Liu, Tongshuang Wu, Pengfei Liu. Pré-impressão'24
Avançando Generalistas de Raciocínio LLM com Árvores de Preferência.
Lifan Yuan, Ganqu Cui, Hanbin Wang, Ning Ding, Xingyao Wang, Jia Deng, Boji Shan, Huimin Chen, Ruobing Xie, Yankai Lin, Zhenghao Liu, Bowen Zhou, Hao Peng, Zhiyuan Liu, Maosong Sun. Pré-impressão'24
LLM3: Planejamento de tarefas e movimentos baseado em modelos de linguagem grande com raciocínio de falha de movimento. [código]
Shu Wang, Muzhi Han, Ziyuan Jiao, Zeyu Zhang, Ying Nian Wu, Song-Chun Zhu, Hangxin Liu. IROS'24
Quiet-STAR: Modelos de linguagem podem ensinar-se a pensar antes de falar.
Eric Zelikman, Georges Harik, Yijia Shao, Varuna Jayasiri, Nick Haber, Noah D. Goodman. Pré-impressão'24
GLoRe: quando, onde e como melhorar o raciocínio LLM por meio de refinamentos globais e locais.
Alex Havrilla, Sharath Raparthy, Christoforus Nalmpantis, Jane Dwivedi-Yu, Maksym Zhuravinskyi, Eric Hambro, Roberta Railneau. ICML'24
Raciocínio de cadeia de pensamento sem aviso prévio.
Xuezhi Wang, Denny Zhou. Pré-impressão'24
V-STaR: Verificadores de treinamento para raciocinadores autodidatas.
Arian Hosseini, Xingdi Yuan, Nikolay Malkin, Aaron Courville, Alessandro Sordoni, Rishabh Agarwal. Pré-impressão'24
InternLM-Math: Modelos de linguagem matemática aberta em direção ao raciocínio verificável.
Huaiyuan Ying, Shuo Zhang, Linyang Li, Zhejian Zhou, Yunfan Shao, Zhaoye Fei, Yichuan Ma, Jiawei Hong, Kuikun Liu, Ziyi Wang, Yudong Wang, Zijian Wu, Shuaibin Li, Fengzhe Zhou, Hongwei Liu, Songyang Zhang, Wenwei Zhang , Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin. Pré-impressão'24
Autodescoberta: Grandes modelos de linguagem autocompõem estruturas de raciocínio.
Pei Zhou, Jay Pujara, Xiang Ren, Xinyun Chen, Heng-Tze Cheng, Quoc V. Le, Ed H. Chi, Denny Zhou, Swaroop Mishra, Huaixiu Steven Zheng. Pré-impressão'24
DeepSeekMath: Ultrapassando os Limites do Raciocínio Matemático em Modelos de Linguagem Aberta.
Zhihong Shao, Peiyi Wang, Qihao Zhu, Runxin Xu, Junxiao Song, Xiao Bi, Haowei Zhang, Mingchuan Zhang, YK Li, Y. Wu, Daya Guo. Pré-impressão'24
Raciocínio de nível K com grandes modelos de linguagem.
Yadong Zhang, Shaoguang Mao, Tao Ge, Xun Wang, Yan Xia, Man Lan, Furu Wei. Pré-impressão'24
Uso eficiente de ferramentas com raciocínio de cadeia de abstração.
Silin Gao, Jane Dwivedi-Yu, Ping Yu, Xiaoqing Ellen Tan, Ramakanth Pasunuru, Olga Golovneva, Koustuv Sinha, Asli Celikyilmaz, Antoine Bosselut, Tianlu Wang. Pré-impressão'24
Ensinando modelos de linguagem para autoaperfeiçoamento por meio de demonstrações interativas.
Xiao Yu, Baolin Peng, Michel Galley, Jianfeng Gao, Zhou Yu. NAACL'24
Aprimorando o raciocínio de cadeia de pensamento zero-shot em grandes modelos de linguagem por meio da lógica. [código]
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. COLING'24
Cadeia de verificação reduz alucinações em grandes modelos de linguagem.
Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston. Descobertas do ACL'24
Esqueleto do pensamento: grandes modelos de linguagem podem fazer decodificação paralela.
Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang. ICLR'24
A decomposição das perguntas melhora a fidelidade do raciocínio gerado pelo modelo. [código]
Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez. Pré-impressão'23
Vamos verificar passo a passo.
Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman, Ilya Sutskever, Karl Cobbe. ICLR'24
REFINER: Feedback de raciocínio sobre representações intermediárias. [projeto] [código]
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings. EACL'24
Solicitação ativa com cadeia de pensamento para grandes modelos de linguagem. [código]
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang. ACL'24
Modelos de linguagem como raciocinadores indutivos.
Zonglin Yang, Li Dong, Xinya Du, Hao Cheng, Erik Cambria, Xiaodong Liu, Jianfeng Gao, Furu Wei. EACL'24
Impulsionando o raciocínio LLM: ultrapasse os limites do aprendizado rápido com poda reforçada no contexto.
Xijie Huang, Li Lyna Zhang, Kwang-Ting Cheng, Mao Yang. Pré-impressão'23
Logic-LM: Capacitando Grandes Modelos de Linguagem com Solucionadores Simbólicos para Raciocínio Lógico Fiel. [código]
Liangming Pan, Alon Albalak, Xinyi Wang, William Yang Wang. Resultados do EMNLP'23
Recursão de pensamento: uma abordagem de divisão e conquista para raciocínio multicontexto com modelos de linguagem. [código] [pôster]
Soochan Lee, Gunhee Kim. Descobertas do ACL'23
Raciocinar com Modelo de Linguagem é Planejar com Modelo Mundial.
Shibo Hao, Yi Gu, Haodi Ma, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu. EMNLP'23
Raciocinando sentimentos implícitos com estímulos de cadeia de pensamento. [código]
Hao Fei, Bobo Li, Qian Liu, Lidong Bing, Fei Li, Tat-Seng Chua. ACL'23
Árvore de pensamentos: solução deliberada de problemas com grandes modelos de linguagem. [código]
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. NeurIPS'23
SatLM: Modelos de Linguagem Auxiliados pela Satisfação Usando Prompt Declarativo. [código]
Xi Ye, Qiaochu Chen, Isil Dillig, Greg Durrett. NeurIPS'23
ART: Raciocínio automático em várias etapas e uso de ferramentas para grandes modelos de linguagem.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. Pré-impressão'23
Aumento e seleção automática de prompts com cadeia de pensamento a partir de dados rotulados. [código]
KaShun Shum, Shizhe Diao, Tong Zhang. Resultados do EMNLP'23
Solicitação Sintética: Gerando Demonstrações de Cadeia de Pensamento para Grandes Modelos de Linguagem.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weizhu Chen. ICML'23
Raciocínio fiel da cadeia de pensamento.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. IJCNLP-AACL'23
Repensando com Recuperação: Inferência Fiel de Modelo de Linguagem Grande.
Hangfeng He, Hongming Zhang, Dan Roth. Pré-impressão'23
LAMBADA: Encadeamento regressivo para raciocínio automatizado em linguagem natural.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. ACL'23
Intercalando recuperação com raciocínio de cadeia de pensamento para questões de várias etapas com uso intensivo de conhecimento. [código]
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. ACL'23
Modelos de linguagem grande são raciocinadores com autoverificação. [código]
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. Resultados do EMNLP'23
Os modelos de linguagem aumentada pelo Retriever podem raciocinar? O jogo de culpa entre o Retriever e o modelo de linguagem. [código]
Parishad Behnam Ghader, Santiago Miret, Siva Reddy. Resultados do EMNLP'23
Explicações complementares para uma aprendizagem eficaz no contexto.
Xi Ye, Srinivasan Iyer, Asli Celikyilmaz, Ves Stoyanov, Greg Durrett, Ramakanth Pasunuru. Descobertas do ACL'23
Programa de estímulo de pensamentos: desembaraçando a computação do raciocínio para tarefas de raciocínio numérico. [código]
Wenhu Chen, Xueguang Ma, Xinyi Wang, William W. Cohen. TMLR'23
Geração de explicação não supervisionada por meio de instanciações corretas.
Sijie Cheng, Zhiyong Wu, Jiangjie Chen, Zhixing Li, Yang Liu, Lingpeng Kong. AAAI'23
PAL: Modelos de Linguagem Auxiliados por Programa. [projeto] [código]
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. ICML'23
Resolvendo problemas matemáticos com palavras por meio de modelos de linguagem induzidos pelo raciocínio cooperativo. [código]
Xinyu Zhu, Junjie Wang, Lin Zhang, Yuxiang Zhang, Ruyi Gan, Jiaxing Zhang, Yujiu Yang. ACL'23
Grandes modelos de linguagem podem melhorar a si mesmos.
Jiaxin Huang, Shixiang Shane Gu, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. EMNLP'23
Mind's Eye: Raciocínio de modelo de linguagem fundamentado por meio de simulação.
Ruibo Liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai. ICLR'23
Solicitação automática de cadeia de pensamento em modelos de linguagem grande. [código]
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola. ICLR'23
Modelos de linguagem são raciocinadores multilíngues de cadeia de pensamento.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. ICLR'23
Pergunte-me qualquer coisa: uma estratégia simples para gerar modelos de linguagem. [código]
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré. ICLR'23
Aprendizagem dinâmica imediata por meio de gradiente de política para raciocínio matemático semiestruturado. [projeto] [código]
Pan Lu, Liang Qiu, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. ICLR'23
Tornando modelos de linguagem grandes melhores raciocinadores com o verificador Step-Aware.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen. ACL'23
A solicitação do menor para o maior permite o raciocínio complexo em grandes modelos de linguagem.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Claire Cui, Olivier Bousquet, Quoc Le, Ed Chi. ICLR'23
A autoconsistência melhora o raciocínio da cadeia de pensamento em modelos de linguagem.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. ICLR'23
Aumento de recuperação para raciocínio de senso comum: uma abordagem unificada. [código]
Wenhao Yu, Chenguang Zhu, Zhihan Zhang, Shuohang Wang, Zhuosheng Zhang, Yuwei Fang, Meng Jiang. EMNLP'22
Modelos de linguagem de código são aprendizes de senso comum de poucas tentativas. [código]
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neubig. EMNLP'22
Resolvendo Problemas de Raciocínio Quantitativo com Modelos de Linguagem. [blogue]
Aitor Lewkowycz, Anders Andreassen, David Dohan, Ethan Dyer, Henryk Michalewski, Vinay Ramasesh, Ambrose Slone, Cem Anil, Imanol Schlag, Theo Gutman-Solo, Yuhuai Wu, Behnam Neyshabur, Guy Gur-Ari, Vedant Misra. NeurIPS'22
Grandes modelos de linguagem ainda não conseguem planejar. [código]
Karthik Valmeekam, Alberto Olmo, Sarath Sreedharan, Subbarao Kambhampati. NeurIPS'22
Modelos de linguagem grande são raciocinadores de tiro zero.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. NeurIPS'22
Modelos de linguagem pré-treinados de forma iterativa para cadeia de pensamento. [código]
Boshi Wang, Xiang Deng, Huan Sun. EMNLP'22
A solicitação de cadeia de pensamento provoca raciocínio em grandes modelos de linguagem. [blogue]
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou. NeurIPS'22
↑ Voltar ao início ↑
MathScale: Dimensionamento de ajuste de instrução para raciocínio matemático.
Zhengyang Tang, Xingxing Zhang, Benyou Wang, Furu Wei. Pré-impressão'24
Aprendendo Raciocínio Dedutivo a partir de Corpus Sintético baseado em Lógica Formal. [código]
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. ICML'23
Destilação simbólica da cadeia de pensamento: modelos pequenos também podem "pensar" passo a passo. [código]
Liunian Harold Li, Jack Hessel, Youngjae Yu, Xiang Ren, Kai-Wei Chang, Yejin Choi. ACL'23
Especialização em modelos de linguagem menores para raciocínio em várias etapas.
Yao Fu, Hao Peng, Litu Ou, Ashish Sabharwal, Tushar Khot. ICML'23
Grandes modelos de linguagem são professores de raciocínio. [código]
Namgyu Ho, Laura Schmid, Se-Young Yun. ACL'23
Ensinando modelos de linguagem pequena à razão.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn. ACL'23 Curto
Destilando capacidades de raciocínio em várias etapas de modelos de linguagem grandes em modelos menores por meio de decomposições semânticas.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. Descobertas do ACL'23
Dimensionando modelos de linguagem ajustados por instrução.
Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Xuezhi Wang, Mostafa Dehghani, Siddhartha Brahma, Albert Webson, Shixiang Shane Gu, Zhuyun Dai, Mirac Suzgun, Xinyun Chen, Aakanksha Chowdhery, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason Wei. JMLR'22
↑ Voltar ao início ↑
Visual Sketchpad: Esboço como uma cadeia visual de pensamento para modelos de linguagem multimodal. [projeto] [código]
Yushi Hu, Weijia Shi, Xingyu Fu, Dan Roth, Mari Ostendorf, Luke Zettlemoyer, Noah A Smith, Ranjay Krishna. Pré-impressão'24
Raciocínio baseado em gráficos: transferindo capacidades de LLMs para VLMs.
Victor Carbune, Hassan Mansoor, Fangyu Liu, Rahul Aralikatte, Gilles Baechler, Jindong Chen, Abhanshu Sharma. Descobertas NAACL'24
SpatialVLM: Dotando Modelos de Linguagem de Visão com Capacidades de Raciocínio Espacial. [projeto]
Boyuan Chen, Zhuo Xu, Sean Kirmani, Brian Ichter, Danny Driess, Pete Florence, Dorsa Sadigh, Leonidas Guibas, Fei Xia. CVPR'24
Cadeia de Tabelas: Evolução de Tabelas na Cadeia de Raciocínio para Compreensão de Tabelas.
Zilong Wang, Hao Zhang, Chun-Liang Li, Julian Martin Eisenschlos, Vincent Perot, Zifeng Wang, Lesly Miculicich, Yasuhisa Fujii, Jingbo Shang, Chen-Yu Lee, Tomas Pfister. ICLR'24
Aprendizagem Link-Context para LLMs Multimodais. [código]
Yan Tai, Weichen Fan, Zhao Zhang, Feng Zhu, Rui Zhao, Ziwei Liu. CVPR'24
Gêmeos no raciocínio: revelando o senso comum em modelos multimodais de grandes linguagens.
Yuqing Wang, Yun Zhao. Pré-impressão'23
G-LLaVA: Resolvendo Problemas Geométricos com Modelo Multimodal de Grande Linguagem.
Jiahui Gao, Renjie Pi, Jipeng Zhang, Jiacheng Ye, Wanjun Zhong, Yufei Wang, Lanqing Hong, Jianhua Han, Hang Xu, Zhenguo Li, Lingpeng Kong. Pré-impressão'23
Chameleon: raciocínio composicional plug-and-play com grandes modelos de linguagem. [projeto] [código]
Pan Lu, Baolin Peng, Hao Cheng, Michel Galley, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. NeurIPS'23
MM-REACT: Solicitando ao ChatGPT raciocínio e ação multimodal. [projeto] [código] [demonstração]
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, Lijuan Wang. Pré-impressão'23
ViperGPT: Inferência Visual via Execução Python para Raciocínio. [projeto] [código]
Dídac Surís, Sachit Menon, Carl Vondrick. ICCV'23
Visual ChatGPT: conversando, desenhando e editando com modelos de base visual. [código]
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. Pré-impressão'23
Raciocínio de cadeia de pensamento multimodal em modelos de linguagem. [código]
Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. Pré-impressão'23
Programação Visual: Raciocínio Visual Composicional sem Treinamento. [projeto] [código]
Tanmay Gupta, Aniruddha Kembhavi. CPVR'23
Modelos Socráticos: Compondo Raciocínio Multimodal Zero-Shot com Linguagem. [projeto] [código]
Andy Zeng, Maria Attarian, Brian Ichter, Krzysztof Choromanski, Adrian Wong, Stefan Welker, Federico Tombari, Aveek Purohit, Michael Ryoo, Vikas Sindhwani, Johnny Lee, Vincent Vanhoucke, Pete Florence. ICLR'23
↑ Voltar ao início ↑
↑ Voltar ao início ↑
↑ Voltar ao início ↑
/abs/
se for uma publicação arXiv).Não se preocupe se você fizer algo errado, isso será consertado para você!