Kuratierte Sammlung von Artikeln und Ressourcen zur Förderung der Denkfähigkeit von LLMs und MLLMs.
Schauen Sie sich auch Awesome-Controllable-Diffusion an.
Achtung Köpfe großer Sprachmodelle: Eine Umfrage. [Code]
Zifan Zheng, Yezhaohui Wang, Yuxin Huang, Shichao Song, Bo Tang, Feiyu Xiong, Zhiyu Li. Vordruck'24
Interne Konsistenz und Selbstfeedback in großen Sprachmodellen: Eine Umfrage. [Code]
Xun Liang, Shichao Song, Zifan Zheng, Hanyu Wang, Qingchen Yu, Xunkai Li, Rong-Hua Li, Feiyu Xiong, Zhiyu Li. Vordruck'24
Rätsellösung mithilfe der Argumentation großer Sprachmodelle: Eine Umfrage. [Code]
Panagiotis Giadikiaroglou, Maria Lymperaiou, Giorgos Filandrianos, Giorgos Stamou. Vordruck'24
Große Sprachmodelle für mathematisches Denken: Fortschritte und Herausforderungen.
Janice Ahn, Rishu Verma, Renze Lou, Di Liu, Rui Zhang, Wenpeng Yin. ACL'24
Auf dem Weg zum Denken in großen Sprachmodellen: Eine Umfrage. [Code]
Jie Huang, Kevin Chen-Chuan Chang. ACL'23-Ergebnisse
Argumentation mit Sprachmodell-Eingabeaufforderung: Eine Umfrage. [Code]
Shuofei Qiao, Yixin Ou, Ningyu Zhang, Xiang Chen, Yunzhi Yao, Shumin Deng, Chuanqi Tan, Fei Huang, Huajun Chen. ACL'23
↑ Zurück nach oben ↑
Von Medprompt zu o1: Erforschung von Laufzeitstrategien für medizinische Herausforderungsprobleme und darüber hinaus.
Harsha Nori, Naoto Usuyama, Nicholas King, Scott Mayer McKinney, Xavier Fernandes, Sheng Zhang, Eric Horvitz. Vordruck'24
CoT oder nicht CoT? Die Gedankenkette hilft hauptsächlich bei Mathematik und symbolischem Denken.
Zayne Sprague, Fangcong Yin, Juan Diego Rodriguez, Dongwei Jiang, Manya Wadhwa, Prasann Singhal, Xinyu Zhao, Xi Ye, Kyle Mahowald, Greg Durrett. Vordruck'24
Können LLMs neuartige Forschungsideen hervorbringen? Eine groß angelegte Humanstudie mit über 100 NLP-Forschern.
Chenglei Si, Diyi Yang, Tatsunori Hashimoto. Vordruck'24
Ein Blick auf den Token-Bias: Große Sprachmodelle sind noch keine echten Denker. [Code]
Bowen Jiang, Yangxinyu Xie, Zhuoqun Hao, Xiaomeng Wang, Tanwi Mallick, Weijie J. Su, Camillo J. Taylor, Dan Roth. EMNLP'24
Iterationsleiter: Eine mechanistische Studie der Gedankenkette
Vivien Cabannes, Charles Arnal, Wassim Bouaziz, Alice Yang, Francois Charton, Julia Kempe. NeurIPS'24
Führen große Sprachmodelle latent Multi-Hop-Argumentation durch?
Sohee Yang, Elena Gribovskaya, Nora Kassner, Mor Geva, Sebastian Riedel. ACL'24
Prämissenreihenfolge ist beim Denken mit großen Sprachmodellen wichtig.
Xinyun Chen, Ryan A. Chi, Xuezhi Wang, Denny Zhou. ICML'24
Der Einfluss der Länge des Argumentationsschritts auf große Sprachmodelle.
Mingyu Jin, Qinkai Yu, Dong Shu, Haiyan Zhao, Wenyue Hua, Yanda Meng, Yongfeng Zhang, Mengnan Du. ACL'24-Ergebnisse
Große Sprachmodelle können das Denken noch nicht selbst korrigieren.
Jie Huang, Xinyun Chen, Swaroop Mishra, Huaixiu Steven Zheng, Adams Wei Yu, Xinying Song, Denny Zhou. ICLR'24
In welcher Trainingsphase helfen Codedaten beim LLM-Argumentieren?
Yingwei Ma, Yue Liu, Yue Yu, Yuanliang Zhang, Yu Jiang, Changjian Wang, Shanshan Li. ICLR'24
Messung der Treue beim Denken in der Gedankenkette.
Tamera Lanham, Anna Chen, Ansh Radhakrishnan, Benoit Steiner, Carson Denison, Danny Hernandez, Dustin Li, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Karina Nguyen, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Robin Larson , Sam McCandlish, Sandipan Kundu, Saurav Kadavath, Shannon Yang, Thomas Henighan, Timothy Maxwell, Timothy Telleen-Lawton, Tristan Hume, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez. Vorabdruck'23
Glaube und Schicksal: Grenzen der Transformatoren für die Kompositionalität.
Nouha Dziri, Ximing Lu, Melanie Sclar, Xiang Lorraine Li, Liwei Jiang, Bill Yuchen Lin, Peter West, Chandra Bhagavatula, Ronan Le Bras, Jena D. Hwang, Soumya Sanyal, Sean Welleck, Xiang Ren, Allyson Ettinger, Zaid Harchaoui, Yejin Choi. NeurIPS'23
Sprachmodelle sagen nicht immer, was sie denken: Untreue Erklärungen bei der Aufforderung zur Gedankenkette. [Code]
Miles Turpin, Julian Michael, Ethan Perez, Samuel R. Bowman. NeurIPS'23
Eine mehrsprachige, multimodale Multitasking-Bewertung von ChatGPT in Bezug auf Argumentation, Halluzination und Interaktivität.
Yejin Bang, Samuel Cahyawijaya, Nayeon Lee, Wenliang Dai, Dan Su, Bryan Wilie, Holy Lovenia, Ziwei Ji, Tiezheng Yu, Willy Chung, Quyet V. Do, Yan Xu, Pascale Fung. AACL'23
Große Sprachmodelle können leicht durch irrelevanten Kontext abgelenkt werden.
Freda Shi, Xinyun Chen, Kanishka Misra, Nathan Scales, David Dohan, Ed Chi, Nathanael Schärli, Denny Zhou. ICML'23
Denken wir beim zweiten Gedanken nicht Schritt für Schritt! Bias und Toxizität im Zero-Shot-Argument.
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang. ACL'23
Auf dem Weg zum Verständnis der Gedankenkette: Eine empirische Studie darüber, worauf es ankommt. [Code]
Boshi Wang, Sewon Min, Xiang Deng, Jiaming Shen, You Wu, Luke Zettlemoyer, Huan Sun. ACL'23
Anspruchsvolle Big-Bench-Aufgaben und ob Chain-of-Thinking sie lösen kann. [Code]
Mirac Suzgun, Nathan Scales, Nathanael Schärli, Sebastian Gehrmann, Yi Tay, Hyung Won Chung, Aakanksha Chowdhery, Quoc V. Le, Ed H. Chi, Denny Zhou, Jason Wei. ACL'23-Ergebnisse
Neue Fähigkeiten großer Sprachmodelle. [Blog]
Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, Oriol Vinyals, Percy Liang, Jeff Dean, William Fedus. TMLR'22
Können Sprachmodelle aus Erklärungen im Kontext lernen?
Andrew K. Lampinen, Ishita Dasgupta, Stephanie CY Chan, Kory Matthewson, Michael Henry Tessler, Antonia Creswell, James L. McClelland, Jane X. Wang, Felix Hill. EMNLP'22
↑ Zurück nach oben ↑
Sprachmodelle zur Selbstkorrektur durch Reinforcement Learning trainieren.
Aviral Kumar, Vincent Zhuang, Rishabh Agarwal, Yi Su, JD Co-Reyes, Avi Singh, Kate Baumli, Shariq Iqbal, Colton Bishop, Rebecca Roelofs, Lei M. Zhang, Kay McKinney, Disha Shrivastava, Cosmin Paduraru, George Tucker, Doina Precup, Feryal Behbahani, Aleksandra Faust. Vordruck'24
OpenAI o1.
Offenes KI-Team. Technischer Bericht'24
Agent F: Erweitertes Denken und Lernen für autonome KI-Agenten.
Pranav Putta, Edmund Mills, Naman Garg, Sumeet Motwani, Chelsea Finn, Divyansh Garg, Rafael Rafailov. Vordruck'24
DotaMath: Zerlegung von Gedanken mit Codeunterstützung und Selbstkorrektur für mathematisches Denken. [Code]
Chengpeng Li, Guanting Dong, Mingfeng Xue, Ru Peng, Xiang Wang, Dayiheng Liu. Vordruck'24
LLM-ARC: Verbesserung von LLMs mit einem automatisierten Argumentationskritiker.
Aditya Kalyanpur, Kailash Saravanakumar, Victor Barres, Jennifer Chu-Carroll, David Melville, David Ferrucci. Vordruck'24
F*: Verbesserung des mehrstufigen Denkens für LLMs durch deliberative Planung.
Chaojie Wang, Yanchen Deng, Zhiyi Lv, Shuicheng Yan, An Bo. Vordruck'24
Gedankenpuffer: Gedankengestütztes Denken mit großen Sprachmodellen. [Code]
Ling Yang, Zhaochen Yu, Tianjun Zhang, Shiyi Cao, Minkai Xu, Wentao Zhang, Joseph E. Gonzalez, Bin Cui. Vordruck'24
Auf dem Weg zur Selbstverbesserung von LLMs durch Vorstellungskraft, Suchen und Kritisieren.
Ye Tian, Baolin Peng, Linfeng Song, Lifeng Jin, Dian Yu, Haitao Mi, Dong Yu. Vordruck'24
Das selbstspielende kontradiktorische Sprachspiel verbessert das LLM-Denken.
Pengyu Cheng, Tianhao Hu, Han Xu, Zhisong Zhang, Yong Dai, Lei Han, Nan Du. Vordruck'24
Bewertung des mathematischen Denkens über die Genauigkeit hinaus.
Shijie Xia, Xuefeng Li, Yixin Liu, Tongshuang Wu, Pengfei Liu. Vordruck'24
Förderung von LLM-Reasoning-Generalisten mit Präferenzbäumen.
Lifan Yuan, Ganqu Cui, Hanbin Wang, Ning Ding, Xingyao Wang, Jia Deng, Boji Shan, Huimin Chen, Ruobing Xie, Yankai Lin, Zhenghao Liu, Bowen Zhou, Hao Peng, Zhiyuan Liu, Maosong Sun. Vordruck'24
LLM3: Auf großen Sprachmodellen basierende Aufgaben- und Bewegungsplanung mit Begründung von Bewegungsfehlern. [Code]
Shu Wang, Muzhi Han, Ziyuan Jiao, Zeyu Zhang, Ying Nian Wu, Song-Chun Zhu, Hangxin Liu. IROS'24
Quiet-STaR: Sprachmodelle können sich selbst beibringen, vor dem Sprechen zu denken.
Eric Zelikman, Georges Harik, Yijia Shao, Varuna Jayasiri, Nick Haber, Noah D. Goodman. Vordruck'24
GLoRe: Wann, wo und wie man das LLM-Argument durch globale und lokale Verfeinerungen verbessern kann.
Alex Havrilla, Sharath Raarthy, Christoforus Nalmpantis, Jane Dwivedi-Yu, Maksym Zhuravinskyi, Eric Hambro, Roberta Railneau. ICML'24
Gedankenkettendenken ohne Aufforderung.
Xuezhi Wang, Denny Zhou. Vordruck'24
V-STaR: Schulung von Verifizierern für autodidaktische Denker.
Arian Hosseini, Xingdi Yuan, Nikolay Malkin, Aaron Courville, Alessandro Sordoni, Rishabh Agarwal. Vordruck'24
InternLM-Math: Offene mathematische Modelle großer Sprachen für überprüfbares Denken.
Huaiyuan Ying, Shuo Zhang, Linyang Li, Zhejian Zhou, Yunfan Shao, Zhaoye Fei, Yichuan Ma, Jiawei Hong, Kuikun Liu, Ziyi Wang, Yudong Wang, Zijian Wu, Shuaibin Li, Fengzhe Zhou, Hongwei Liu, Songyang Zhang, Wenwei Zhang , Hang Yan, Xipeng Qiu, Jiayu Wang, Kai Chen, Dahua Lin. Vordruck'24
Selbstfindung: Große Sprachmodelle erstellen selbst Argumentationsstrukturen.
Pei Zhou, Jay Pujara, Xiang Ren, Xinyun Chen, Heng-Tze Cheng, Quoc V. Le, Ed H. Chi, Denny Zhou, Swaroop Mishra, Huaixiu Steven Zheng. Vordruck'24
DeepSeekMath: Die Grenzen des mathematischen Denkens in offenen Sprachmodellen erweitern.
Zhihong Shao, Peiyi Wang, Qihao Zhu, Runxin Xu, Junxiao Song, Xiao Bi, Haowei Zhang, Mingchuan Zhang, YK Li, Y. Wu, Daya Guo. Vordruck'24
K-Level-Argumentation mit großen Sprachmodellen.
Yadong Zhang, Shaoguang Mao, Tao Ge, Xun Wang, Yan Xia, Man Lan, Furu Wei. Vordruck'24
Effizienter Werkzeugeinsatz mit Chain-of-Abstraction Reasoning.
Silin Gao, Jane Dwivedi-Yu, Ping Yu, Xiaoqing Ellen Tan, Ramakanth Pasunuru, Olga Golovneva, Koustuv Sinha, Asli Celikyilmaz, Antoine Bosselut, Tianlu Wang. Vordruck'24
Unterrichten von Sprachmodellen zur Selbstverbesserung durch interaktive Demonstrationen.
Xiao Yu, Baolin Peng, Michel Galley, Jianfeng Gao, Zhou Yu. NAACL'24
Verbesserung des Zero-Shot-Chain-of-Thought-Denkens in großen Sprachmodellen durch Logik. [Code]
Xufeng Zhao, Mengdi Li, Wenhao Lu, Cornelius Weber, Jae Hee Lee, Kun Chu, Stefan Wermter. COLING'24
Verifizierungskette reduziert Halluzinationen in großen Sprachmodellen.
Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston. ACL'24-Ergebnisse
Gedankenskelett: Große Sprachmodelle können parallel dekodieren.
Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang. ICLR'24
Die Fragenzerlegung verbessert die Treue des modellgenerierten Denkens. [Code]
Ansh Radhakrishnan, Karina Nguyen, Anna Chen, Carol Chen, Carson Denison, Danny Hernandez, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamilė Lukošiūtė, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Sam McCandlish, Sheer El Showk, Tamera Lanham, Tim Maxwell, Venkatesa Chandrasekaran, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, Ethan Perez. Vorabdruck'23
Lassen Sie uns Schritt für Schritt überprüfen.
Hunter Lightman, Vineet Kosaraju, Yura Burda, Harri Edwards, Bowen Baker, Teddy Lee, Jan Leike, John Schulman, Ilya Sutskever, Karl Cobbe. ICLR'24
REFINER: Begründungsfeedback zu Zwischendarstellungen. [Projekt] [Code]
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings. EACL'24
Aktive Eingabeaufforderung mit Gedankenkette für große Sprachmodelle. [Code]
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang. ACL'24
Sprachmodelle als induktive Denker.
Zonglin Yang, Li Dong, Xinya Du, Hao Cheng, Erik Cambria, Xiaodong Liu, Jianfeng Gao, Furu Wei. EACL'24
Förderung des LLM-Argumentation: Erweitern Sie die Grenzen des Few-Shot-Lernens mit verstärkter In-Context-Beschneidung.
Xijie Huang, Li Lyna Zhang, Kwang-Ting Cheng, Mao Yang. Vorabdruck'23
Logic-LM: Stärkung großer Sprachmodelle mit symbolischen Lösern für zuverlässiges logisches Denken. [Code]
Liangming Pan, Alon Albalak, Xinyi Wang, William Yang Wang. EMNLP'23-Ergebnisse
Rekursion des Denkens: Ein Divide-and-Conquer-Ansatz zum Multikontext-Denken mit Sprachmodellen. [Code] [Poster]
Soochan Lee, Gunhee Kim. ACL'23-Ergebnisse
Das Denken mit dem Sprachmodell ist das Planen mit dem Weltmodell.
Shibo Hao, Yi Gu, Haodi Ma, Joshua Jiahua Hong, Zhen Wang, Daisy Zhe Wang, Zhiting Hu. EMNLP'23
Argumentation impliziter Gefühle mit Hilfe von Gedankenketten. [Code]
Hao Fei, Bobo Li, Qian Liu, Lidong Bing, Fei Li, Tat-Seng Chua. ACL'23
Gedankenbaum: Bewusste Problemlösung mit großen Sprachmodellen. [Code]
Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan. NeurIPS'23
SatLM: Erfüllbarkeitsgestützte Sprachmodelle mit deklarativer Eingabeaufforderung. [Code]
Xi Ye, Qiaochu Chen, Isil Dillig, Greg Durrett. NeurIPS'23
KUNST: Automatische mehrstufige Argumentation und Werkzeugnutzung für große Sprachmodelle.
Bhargavi Paranjape, Scott Lundberg, Sameer Singh, Hannaneh Hajishirzi, Luke Zettlemoyer, Marco Tulio Ribeiro. Vorabdruck'23
Automatische prompte Erweiterung und Auswahl mit Gedankenkette aus beschrifteten Daten. [Code]
KaShun Shum, Shizhe Diao, Tong Zhang. EMNLP'23-Ergebnisse
Synthetische Eingabeaufforderung: Generieren von Gedankenkettendemonstrationen für große Sprachmodelle.
Zhihong Shao, Yeyun Gong, Yelong Shen, Minlie Huang, Nan Duan, Weizhu Chen. ICML'23
Getreue Gedankenkette.
Qing Lyu, Shreya Havaldar, Adam Stein, Li Zhang, Delip Rao, Eric Wong, Marianna Apidianaki, Chris Callison-Burch. IJCNLP-AACL'23
Umdenken mit Retrieval: Getreue Inferenz großer Sprachmodelle.
Hangfeng He, Hongming Zhang, Dan Roth. Vorabdruck'23
LAMBADA: Rückwärtsverkettung für automatisiertes Denken in natürlicher Sprache.
Seyed Mehran Kazemi, Najoung Kim, Deepti Bhatia, Xin Xu, Deepak Ramachandran. ACL'23
Interleaving Retrieval mit Chain-of-Thought Reasoning für wissensintensive mehrstufige Fragen. [Code]
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal. ACL'23
Große Sprachmodelle sind Reasoner mit Selbstverifizierung. [Code]
Yixuan Weng, Minjun Zhu, Shizhu He, Kang Liu, Jun Zhao. EMNLP'23-Ergebnisse
Können Retriever-erweiterte Sprachmodelle vernünftigerweise funktionieren? Das Schuldspiel zwischen dem Retriever und dem Sprachmodell. [Code]
Parishad BehnamGhader, Santiago Miret, Siva Reddy. EMNLP'23-Ergebnisse
Ergänzende Erklärungen für effektives kontextbezogenes Lernen.
Xi Ye, Srinivasan Iyer, Asli Celikyilmaz, Ves Stoyanov, Greg Durrett, Ramakanth Pasunuru. ACL'23-Ergebnisse
Programm der Gedankenanregung: Berechnung und Argumentation für Aufgaben zum numerischen Denken entwirren. [Code]
Wenhu Chen, Xueguang Ma, Xinyi Wang, William W. Cohen. TMLR'23
Unüberwachte Erklärungsgenerierung durch korrekte Instanziierungen.
Sijie Cheng, Zhiyong Wu, Jiangjie Chen, Zhixing Li, Yang Liu, Lingpeng Kong. AAAI'23
PAL: Programmgestützte Sprachmodelle. [Projekt] [Code]
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig. ICML'23
Lösen mathematischer Wortprobleme durch durch kooperatives Denken induzierte Sprachmodelle. [Code]
Xinyu Zhu, Junjie Wang, Lin Zhang, Yuxiang Zhang, Ruyi Gan, Jiaxing Zhang, Yujiu Yang. ACL'23
Große Sprachmodelle können sich selbst verbessern.
Jiaxin Huang, Shixiang Shane Gu, Le Hou, Yuexin Wu, Xuezhi Wang, Hongkun Yu, Jiawei Han. EMNLP'23
Mind's Eye: Fundierte Argumentation für Sprachmodelle durch Simulation.
Ruibo Liu, Jason Wei, Shixiang Shane Gu, Te-Yen Wu, Soroush Vosoughi, Claire Cui, Denny Zhou, Andrew M. Dai. ICLR'23
Automatische Gedankenkette in großen Sprachmodellen. [Code]
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola. ICLR'23
Sprachmodelle sind mehrsprachige Gedankenketten.
Freda Shi, Mirac Suzgun, Markus Freitag, Xuezhi Wang, Suraj Srivats, Soroush Vosoughi, Hyung Won Chung, Yi Tay, Sebastian Ruder, Denny Zhou, Dipanjan Das, Jason Wei. ICLR'23
Ask Me Anything: Eine einfache Strategie zur Eingabe von Sprachmodellen. [Code]
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré. ICLR'23
Dynamisches schnelles Lernen über Policy Gradient für halbstrukturiertes mathematisches Denken. [Projekt] [Code]
Pan Lu, Liang Qiu, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Tanmay Rajpurohit, Peter Clark, Ashwin Kalyan. ICLR'23
Große Sprachmodelle mit Step-Aware Verifier zu besseren Reasonern machen.
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen. ACL'23
Least-to-most-Prompting ermöglicht komplexes Denken in großen Sprachmodellen.
Denny Zhou, Nathanael Schärli, Le Hou, Jason Wei, Nathan Scales, Xuezhi Wang, Dale Schuurmans, Claire Cui, Olivier Bousquet, Quoc Le, Ed Chi. ICLR'23
Selbstkonsistenz verbessert die Gedankenkette in Sprachmodellen.
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou. ICLR'23
Retrieval Augmentation für Commonsense Reasoning: Ein einheitlicher Ansatz. [Code]
Wenhao Yu, Chenguang Zhu, Zhihan Zhang, Shuohang Wang, Zhuosheng Zhang, Yuwei Fang, Meng Jiang. EMNLP'22
Sprachmodelle des Codes sind Few-Shot-Commonsense-Lerner. [Code]
Aman Madaan, Shuyan Zhou, Uri Alon, Yiming Yang, Graham Neubig. EMNLP'22
Lösen quantitativer Argumentationsprobleme mit Sprachmodellen. [Blog]
Aitor Lewkowycz, Anders Andreassen, David Dohan, Ethan Dyer, Henryk Michalewski, Vinay Ramasesh, Ambrose Slone, Cem Anil, Imanol Schlag, Theo Gutman-Solo, Yuhuai Wu, Behnam Neyshabur, Guy Gur-Ari, Vedant Misra. NeurIPS'22
Große Sprachmodelle können immer noch nicht planen. [Code]
Karthik Valmeekam, Alberto Olmo, Sarath Sreedharan, Subbarao Kambhampati. NeurIPS'22
Große Sprachmodelle sind Zero-Shot-Reasonatoren.
Takeshi Kojima, Shixiang Shane Gu, Machel Reid, Yutaka Matsuo, Yusuke Iwasawa. NeurIPS'22
Iterativ schnelle vorab trainierte Sprachmodelle für die Gedankenkette. [Code]
Boshi Wang, Xiang Deng, Huan Sun. EMNLP'22
Die Aufforderung zur Gedankenkette löst Argumentation in großen Sprachmodellen aus. [Blog]
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou. NeurIPS'22
↑ Zurück nach oben ↑
MathScale: Optimierung von Skalierungsanweisungen für mathematisches Denken.
Zhengyang Tang, Xingxing Zhang, Benyou Wang, Furu Wei. Vordruck'24
Erlernen des deduktiven Denkens aus einem synthetischen Korpus basierend auf formaler Logik. [Code]
Terufumi Morishita, Gaku Morio, Atsuki Yamaguchi, Yasuhiro Sogawa. ICML'23
Symbolische Gedankenkettendestillation: Auch kleine Modelle können Schritt für Schritt „denken“. [Code]
Liunian Harold Li, Jack Hessel, Youngjae Yu, Xiang Ren, Kai-Wei Chang, Yejin Choi. ACL'23
Spezialisierung kleinerer Sprachmodelle auf mehrstufiges Denken.
Yao Fu, Hao Peng, Litu Ou, Ashish Sabharwal, Tushar Khot. ICML'23
Große Sprachmodelle sind Argumentationslehrer. [Code]
Namgyu Ho, Laura Schmid, Se-Young Yun. ACL'23
Kleine Sprachmodelle der Vernunft beibringen.
Lucie Charlotte Magister, Jonathan Mallinson, Jakub Adamek, Eric Malmi, Aliaksei Severyn. ACL'23 Kurz
Destillation der mehrstufigen Argumentationsfähigkeiten großer Sprachmodelle in kleinere Modelle durch semantische Zerlegungen.
Kumar Shridhar, Alessandro Stolfo, Mrinmaya Sachan. ACL'23-Ergebnisse
Skalierungsanweisungen-fein abgestimmte Sprachmodelle.
Hyung Won Chung, Le Hou, Shayne Longpre, Barret Zoph, Yi Tay, William Fedus, Eric Li, Sharan Narang, Gaurav Mishra, Adams Yu, Vincent Zhao, Yanping Huang, Andrew Dai, Hongkun Yu, Slav Petrov, Ed H. Chi, Jeff Dean, Jacob Devlin, Adam Roberts, Denny Zhou, Quoc V. Le, Jason Wei. JMLR'22
↑ Zurück nach oben ↑
Visueller Skizzenblock: Skizzieren als visuelle Gedankenkette für multimodale Sprachmodelle. [Projekt] [Code]
Yushi Hu, Weijia Shi, Xingyu Fu, Dan Roth, Mari Ostendorf, Luke Zettlemoyer, Noah A Smith, Ranjay Krishna. Vordruck'24
Diagrammbasiertes Denken: Übertragung von Fähigkeiten von LLMs auf VLMs.
Victor Carbune, Hassan Mansoor, Fangyu Liu, Rahul Aralikatte, Gilles Baechler, Jindong Chen, Abhanshu Sharma. NAACL'24-Ergebnisse
SpatialVLM: Ausstattung von Vision-Language-Modellen mit räumlichen Denkfähigkeiten. [Projekt]
Boyuan Chen, Zhuo Xu, Sean Kirmani, Brian Ichter, Danny Driess, Pete Florence, Dorsa Sadigh, Leonidas Guibas, Fei Xia. CVPR'24
Chain-of-Table: Sich entwickelnde Tabellen in der Argumentationskette für das Tabellenverständnis.
Zilong Wang, Hao Zhang, Chun-Liang Li, Julian Martin Eisenschlos, Vincent Perot, Zifeng Wang, Lesly Miculicich, Yasuhisa Fujii, Jingbo Shang, Chen-Yu Lee, Tomas Pfister. ICLR'24
Link-Kontext-Lernen für multimodale LLMs. [Code]
Yan Tai, Weichen Fan, Zhao Zhang, Feng Zhu, Rui Zhao, Ziwei Liu. CVPR'24
Zwillinge im Denken: Enthüllung des gesunden Menschenverstands in multimodalen großen Sprachmodellen.
Yuqing Wang, Yun Zhao. Vorabdruck'23
G-LLaVA: Lösen geometrischer Probleme mit einem multimodalen großen Sprachmodell.
Jiahui Gao, Renjie Pi, Jipeng Zhang, Jiacheng Ye, Wanjun Zhong, Yufei Wang, Lanqing Hong, Jianhua Han, Hang Xu, Zhenguo Li, Lingpeng Kong. Vorabdruck'23
Chameleon: Plug-and-Play-Kompositorisches Denken mit großen Sprachmodellen. [Projekt] [Code]
Pan Lu, Baolin Peng, Hao Cheng, Michel Galley, Kai-Wei Chang, Ying Nian Wu, Song-Chun Zhu, Jianfeng Gao. NeurIPS'23
MM-REACT: ChatGPT zum multimodalen Denken und Handeln auffordern. [Projekt] [Code] [Demo]
Zhengyuan Yang, Linjie Li, Jianfeng Wang, Kevin Lin, Ehsan Azarnasab, Faisal Ahmed, Zicheng Liu, Ce Liu, Michael Zeng, Lijuan Wang. Vorabdruck'23
ViperGPT: Visuelle Inferenz über Python-Ausführung für Reasoning. [Projekt] [Code]
Didac Surís, Sachit Menon, Carl Vondrick. ICCV'23
Visual ChatGPT: Sprechen, Zeichnen und Bearbeiten mit Visual Foundation-Modellen. [Code]
Chenfei Wu, Shengming Yin, Weizhen Qi, Xiaodong Wang, Zecheng Tang, Nan Duan. Vorabdruck'23
Multimodales Gedankenkettendenken in Sprachmodellen. [Code]
Zhuosheng Zhang, Aston Zhang, Mu Li, Hai Zhao, George Karypis, Alex Smola. Vorabdruck'23
Visuelle Programmierung: Kompositorisches visuelles Denken ohne Training. [Projekt] [Code]
Tanmay Gupta, Aniruddha Kembhavi. CPVR'23
Sokratische Modelle: Zero-Shot-multimodales Denken mit Sprache verfassen. [Projekt] [Code]
Andy Zeng, Maria Attarian, Brian Ichter, Krzysztof Choromanski, Adrian Wong, Stefan Welker, Federico Tombari, Aveek Purohit, Michael Ryoo, Vikas Sindhwani, Johnny Lee, Vincent Vanhoucke, Pete Florence. ICLR'23
↑ Zurück nach oben ↑
↑ Zurück nach oben ↑
↑ Zurück nach oben ↑
/abs/
wenn es sich um eine arXiv-Publikation handelt).Machen Sie sich keine Sorgen, wenn Sie etwas falsch machen, es wird für Sie behoben!