Dieses Repository namens UR2-LLMs enthält eine Sammlung von Ressourcen und Artikeln zu Unsicherheit , Zuverlässigkeit und Robustheit in großen Sprachmodellen .
„ Große Sprachmodelle haben eine begrenzte Zuverlässigkeit, ein begrenztes Verständnis, eine begrenzte Reichweite und benötigen daher menschliche Aufsicht .“ – Michael Osborne, Professor für maschinelles Lernen am Fachbereich Ingenieurwissenschaften, Universität Oxford, 25. Januar 2023
Gerne können Sie Ihre Beiträge, Gedanken und Ideen in diesem Bereich teilen!
GPT ist ein unzuverlässiger Informationsspeicher
Edler Ackerson
[Link]
20. Februar 2023
„Missbrauch“ großer Sprachmodelle und die Zukunft von MT
Arle Lommel
[Link]
20. Dez. 2022
Große Sprachmodelle: Die Grundlagen und ihre Anwendungen
Margo Poda
[Link]
9. Februar 2023
Prompt Engineering: Verbesserung von Reaktionen und Zuverlässigkeit
Peter Foy
[Link]
19. März 2023
OpenAIs Kochbuch über Techniken zur Verbesserung der Zuverlässigkeit
OpenAI
[Github]
18. März 2023
GPT/Kalibrierungs-Tag
Gwern Branwen
[Link]
Schnelles Engineering
Lilian Weng
[Link]
LLM-basierte autonome Agenten
Lilian Weng
[Link]
Zuverlässigkeit bei der Lernanregung
[Link]
Erstellen von LLM-Anwendungen für die Produktion
Chip Huyen
[Link]
11. April 2023
GPT-4 Technischer Bericht
OpenAI
arXiv 2023. [Papier][Kochbuch]
16. März 2023
GPT-4-Systemkarte
OpenAI
arXiv 2023. [Papier] [Github]
15. März 2023
Unsicherheitsschätzung für die Verarbeitung natürlicher Sprache
Adam Fisch, Robin Jia, Tal Schuster
COLLING 2022. [Website]
Größere und tiefere LLM-Netzwerke sind gerechtere LLM-Evaluatoren
Xinghua Zhang, Bowen Yu, Haiyang Yu, Yangyu Lv, Tingwen Liu, Fei Huang, Hongbo Xu, Yongbin Li
arXiv 2023. [Papier][Github]
3. August 2023
Eine Umfrage zur Bewertung großer Sprachmodelle
Yupeng Chang, Xu Wang, Jindong Wang, Yuan Wu, Kaijie Zhu, Hao Chen, Linyi Yang, Xiaoyuan Yi, Cunxiang Wang, Yidong Wang, Wei Ye, Yue Zhang, Yi Chang, Philip S. Yu, Qiang Yang, Xing Xie
Arxiv 2023. [Papier][Github]
6. Juli 2023
DecodingTrust: Eine umfassende Bewertung der Vertrauenswürdigkeit in GPT-Modellen
Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer, Sang T. Truong, Simran Arora, Mantas Mazeika, Dan Hendrycks, Zinan Lin, Yu Cheng, Sanmi Koyejo, Dawn Song, Bo Li
Arxiv, 2023. [Papier] [Github] [Website]
20. Juni 2023
Wir vertrauen auf ChatGPT? Messung und Charakterisierung der Zuverlässigkeit von ChatGPT
Xinyue Shen, Zeyuan Chen, Michael Backes, Yang Zhang
arXiv, 2023. [Papier]
18. April 2023
Die Leistungsfähigkeit von LLMs in der Praxis nutzen: Eine Umfrage zu ChatGPT und darüber hinaus
Jingfeng Yang, Hongye Jin, Ruixiang Tang, Xiaotian Han, Qizhang Feng, Haoming Jiang, Bing Yin, Xia Hu
arXiv 2023. [Papier][Github]
27. April 2023
Wie robust ist GPT-3.5 gegenüber Vorgängern? Eine umfassende Studie zu Sprachverständnisaufgaben
Xuanting Chen, Junjie Ye, Can Zu, Nuo Xu, Rui Zheng, Minlong Peng, Jie Zhou, Tao Gui, Qi Zhang, Xuanjing Huang
arXiv 2023. [Papier][Github]
1. März 2023
Ganzheitliche Bewertung von Sprachmodellen
Percy Liang, Rishi Bommasani, Tony Lee, Dimitris Tsipras, Dilara Soylu, Michihiro Yasunaga, Yian Zhang, Deepak Narayanan, Yuhuai Wu, Ananya Kumar, Benjamin Newman, Binhang Yuan, Bobby Yan, Ce Zhang, Christian Cosgrove, Christopher D. Manning, Christopher Ré, Diana Acosta-Navas, Drew A. Hudson, Eric Zelikman, Esin Durmus, Faisal Ladhak, Frieda Rong, Hongyu Ren, Huaxiu Yao, Jue Wang, Keshav Santhanam, Laurel Orr, Lucia Zheng, Mert Yuksekgonul, Mirac Suzgun, Nathan Kim, Neel Guha, Niladri Chatterji, Omar Khattab, Peter Henderson, Qian Huang, Ryan Chi, Sang Michael Xie, Shibani Santurkar, Surya Ganguli, Tatsunori Hashimoto, Thomas Icard, Tianyi Zhang, Vishrav Chaudhary, William Wang, Xuechen Li, Yifan Mai, Yuhui Zhang, Yuta Koreeda
arXiv 2022. [Papier] [Website] [Github] [Blog]
16. November 2022
GPT-3 dazu auffordern, zuverlässig zu sein
Chenglei Si, Zhe Gan, Zhengyuan Yang, Shuohang Wang, Jianfeng Wang, Jordan Boyd-Graber, Lijuan Wang
ICLR 2023. [Papier] [Github]
17. Okt. 2022
Plex: Auf dem Weg zur Zuverlässigkeit mit vorab trainierten Erweiterungen großer Modelle
Dustin Tran, Jeremiah Liu, Michael W. Dusenberry, Du Phan, Mark Collier, Jie Ren, Kehang Han, Zi Wang, Zelda Mariet, Huiyi Hu, Neil Band, Tim GJ Rudner, Karan Singhal, Zachary Nado, Joost van Amersfoort, Andreas Kirsch, Rodolphe Jenatton, Nithum Thain, Honglin Yuan, Kelly Buchanan, Kevin Murphy, D. Sculley, Yarin Gal, Zoubin Ghahramani, Jasper Snoek, Balaji Lakshminarayanan
arXiv 2022. [Papier]
15. Juli 2022
Sprachmodelle wissen (meistens), was sie wissen
Saurav Kadavath, Tom Conerly, Amanda Askell, Tom Henighan, Dawn Drain, Ethan Perez, Nicholas Schiefer, Zac Hatfield-Dodds, Nova DasSarma, Eli Tran-Johnson, Scott Johnston, Sheer El-Showk, Andy Jones, Nelson Elhage, Tristan Hume , Anna Chen, Yuntao Bai, Sam Bowman, Stanislav Fort, Deep Ganguli, Danny Hernandez, Josh Jacobson, Jackson Kernion, Shauna Kravec, Liane Lovitt, Kamal Ndousse, Catherine Olsson, Sam Ringer, Dario Amodei, Tom Brown, Jack Clark, Nicholas Joseph, Ben Mann, Sam McCandlish, Chris Olah, Jared Kaplan
arXiv 2022. [Papier]
11. Juli 2022
Erweiterte Sprachmodelle: eine Umfrage
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, Edouard Grave, Yann LeCun, Thomas Scialom
arXiv 2023. [Papier]
15. Februar 2023
Eine Übersicht über Bewertungsmetriken, die für NLG-Systeme verwendet werden
Ananya B. Sai, Akash Kumar Mohankumar, Mitesh M. Khapra
ACM Computing Survey, 2022. [Papier]
18. Januar 2022
NL-Augmenter: Ein Framework für die aufgabensensitive Erweiterung natürlicher Sprache
Kaustubh D. Dhole et al.
ACL 2021. [Papier][Github]
6. Dez. 2021
TextFlint: Unified Multilingual Robustness Evaluation Toolkit für die Verarbeitung natürlicher Sprache
Tao Gui et al.
arXiv 2021. [Papier][Github]
21. März 2021
Robustness Gym: Vereinheitlichung der NLP-Bewertungslandschaft
Karan Goel, Nazneen Rajani, Jesse Vig, Samson Tan, Jason Wu, Stephan Zheng, Caiming Xiong, Mohit Bansal, Christopher Ré
ACL 2021. [Papier] [Github]
13. Januar 2021
Beyond Accuracy: Verhaltenstests von NLP-Modellen mit CheckList
Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, Sameer Singh
ACL 2020. [Papier][Github]
8. Mai 2020
BLoB: Bayesianische Low-Rank-Anpassung durch Backpropagation für große Sprachmodelle
Yibin Wang, Haizhou Shi, Ligong Han, Dimitris Metaxas, Hao Wang
arXiv 2024. [Papier]
18. Juni 2024
Unsicherheitsschätzung und -quantifizierung für LLMs: Ein einfacher überwachter Ansatz
Linyu Liu, Yu Pan, Xiaocheng Li, Guanting Chen
arXiv 2024. [Papier]
24. April 2024
Verlagerung der Aufmerksamkeit auf Relevanz: Auf dem Weg zur Unsicherheitsschätzung großer Sprachmodelle
Jinhao Duan, Hao Cheng, Shiqi Wang, Alex Zavalny, Chenan Wang, Renjing Xu, Bhavya Kailkhura, Kaidi Xu
arXiv 2023. [Papier]
9. Okt. 2023
Schauen Sie, bevor Sie springen: Eine explorative Studie zur Unsicherheitsmessung für große Sprachmodelle
Yuheng Huang, Jiayang Song, Zhijie Wang, Shengming Zhao, Huaming Chen, Felix Juefei-Xu, Lei Ma
arXiv 2023. [Papier]
16. Juli 2023
Quantifizierung der Unsicherheit in natürlichsprachlichen Erklärungen großer Sprachmodelle
Sree Harsha Tanneru, Chirag Agarwal, Himabindu Lakkaraju
arXiv 2023. [Papier]
6. November 2023
Konforme autoregressive Generierung: Strahlsuche mit Abdeckungsgarantien
Nicolas Deutschmann, Marvin Alberts, María Rodríguez Martínez
arXiv 2023. [Papier]
7. September 2023
Quantifizierung der Unsicherheit in Antworten aus beliebigen Sprachmodellen und Verbesserung ihrer Vertrauenswürdigkeit
Jiuhai Chen, Jonas Müller
arXiv 2023. [Papier]
30. August 2023
Unsicherheit bei der Erzeugung natürlicher Sprache: Von der Theorie zu Anwendungen
Joris Baan, Nico Daheim, Evgenia Ilia, Dennis Ulmer, Haau-Sing Li, Raquel Fernández, Barbara Plank, Rico Sennrich, Chrysoula Zerva, Wilker Aziz
arXiv 2023. [Papier]
28. Juli 2023
Mit Zuversicht generieren: Unsicherheitsquantifizierung für große Black-Box-Sprachmodelle
Zhen Lin, Shubhendu Trivedi, Jimeng Sun
arXiv 2023. [Papier] [Github]
30. Mai 2023
Menschliche Unsicherheit in konzeptbasierten KI-Systemen
Katherine M. Collins, Matthew Barker, Mateo Espinosa Zarlenga, Naveen Raman, Umang Bhatt, Mateja Jamnik, Ilia Sucholutsky, Adrian Weller, Krishnamurthy Dvijotham
arXiv 2023. [Papier]
22. März 2023
Navigieren in der Grauzone: Ausdrucksformen von Selbstüberschätzung und Unsicherheit in Sprachmodellen
Kaitlyn Zhou, Dan Jurafsky, Tatsunori Hashimoto
arXiv 2023. [Papier]
25. Februar 2023
DEUP: Direkte epistemische Unsicherheitsvorhersage
Salem Lahlou, Moksh Jain, Hadi Nekoei, Victor Ion Butoi, Paul Bertin, Jarrid Rector-Brooks, Maksym Korablyov, Yoshua Bengio
TMLR 2023. [Papier]
3. Februar 2023
Zur Quantifizierung der kompositorischen Unsicherheit für das Parsen von Seq2seq-Graphen
Zi Lin, Du Phan, Panupong Pasupat, Jeremiah Zhe Liu, Jingbo Shang
ICLR 2023. [Papier]
1. Februar 2023
Neuronal-symbolische Inferenz für robustes autoregressives Graph-Parsing mittels Quantifizierung der kompositorischen Unsicherheit
Zi Lin, Jeremiah Liu, Jingbo Shang
EMNLP 2022. [Papier]
16. Januar 2023
Modellen beibringen, ihre Unsicherheit in Worte zu fassen
Stephanie Lin, Jacob Hilton, Owain Evans
TMLR 2022. [Papier] [Github] [TMLR] [Folie]
28. Mai 2022
Semantische Unsicherheit: Sprachliche Invarianzen für die Unsicherheitsschätzung bei der Erzeugung natürlicher Sprache
Lorenz Kuhn, Yarin Gal, Sebastian Farquhar
ICLR 2023. [Papier]
19. Februar 2022
Kaltstart-Datenauswahl für die Feinabstimmung des Sprachmodells mit wenigen Schüssen: Ein auf Eingabeaufforderungen basierender Ansatz zur Unsicherheitsausbreitung
Yue Yu, Rongzhi Zhang, Ran Xu, Jieyu Zhang, Jiaming Shen, Chao Zhang
arXiv 2022. [Papier][Github]
15. September 2022
Feinabstimmung von Sprachmodellen über epistemische neuronale Netze
Ian Osband, Seyed Mohammad Asghari, Benjamin Van Roy, Nat McAleese, John Aslanides, Geoffrey Irving
arXiv 2022. [Papier][Github]
3. November 2022
Unsicherheitsquantifizierung mit vorab trainierten Sprachmodellen: Eine groß angelegte empirische Analyse
Yuxin Xiao, Paul Pu Liang, Umang Bhatt, Willie Neiswanger, Ruslan Salakhutdinov, Louis-Philippe Morency
EMNLP 2022 (Ergebnisse). [Papier][Github]
10. Okt. 2022
Unsicherheitsschätzung für Sprachbelohnungsmodelle
Adam Gleave, Geoffrey Irving
arXiv 2022. [Papier]
14. März 2022
Unsicherheitsschätzung und Reduzierung vorab trainierter Modelle für die Textregression
Yuxia Wang, Daniel Beck, Timothy Baldwin, Karin Verspoor
TACL 2022. [Papier]
Juni 2022
Unsicherheitsschätzung in der autoregressiven strukturierten Vorhersage
Andrey Malinin, Mark Gales
ICLR 2021. [Papier]
18. Februar 2020
Unbeaufsichtigte Qualitätsschätzung für neuronale maschinelle Übersetzung
Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Francisco Guzmán, Mark Fishel, Nikolaos Aletras, Vishrav Chaudhary, Lucia Specia
TACL 2020. [Papier][Datensatz]
21. Mai 2020
Analyse der Unsicherheit in der neuronalen maschinellen Übersetzung
Myle Ott, Michael Auli, David Grangier, Marc'Aurelio Ranzato
ICML 2018. [Papier]
2018
Batch-Kalibrierung: Kalibrierung für kontextbezogenes Lernen und schnelles Engineering neu denken
Han Zhou, Xingchen Wan, Lev Proleev, Diana Mincu, Jilin Chen, Katherine Heller, Subhrajit Roy
ICLR 2024. [Papier] 24. Januar 2024
Wissen große Sprachmodelle, was sie nicht wissen?
Zhangyue Yin, Qiushi Sun, Qipeng Guo, Jiawen Wu, Xipeng Qiu, Xuanjing Huang
arXiv 2023. [Papier] 29. Mai 2023
Fragen Sie einfach nach der Kalibrierung: Strategien zur Ermittlung kalibrierter Konfidenzwerte aus Sprachmodellen, die mit menschlichem Feedback verfeinert wurden
Katherine Tian, Eric Mitchell, Allan Zhou, Archit Sharma, Rafael Rafailov, Huaxiu Yao, Chelsea Finn, Christopher D. Manning
arXiv 2023. [Papier]
24. Mai 2023
Auf dem Weg zu einer zuverlässigen Eindämmung von Fehlinformationen: Generalisierung, Unsicherheit und GPT-4
Kellin Pelrine, Meilina Reksoprodjo, Caleb Gupta, Joel Christoph, Reihaneh Rabbany
arXiv 2023. [Papier]
24. Mai 2023
Kalibrierte Interpretation: Vertrauensschätzung beim semantischen Parsen
Elias Stengel-Eskin, Benjamin Van Durme
arXiv 2022. [Papier] [Github]
14. November 2022.
Die Kalibrierung der Sequenzwahrscheinlichkeit verbessert die Erzeugung bedingter Sprache
Yao Zhao, Misha Khalman, Rishabh Joshi, Shashi Narayan, Mohammad Saleh, Peter J. Liu
ICLR 2023. [Papier]
30. September 2022
Kalibrierte selektive Klassifizierung
Adam Fisch, Tommi Jaakkola, Regina Barzilay
TMLR 2022. [Papier]
25. August 2022
Reduzierung der Selbstüberschätzung von Gesprächspartnern durch sprachliche Kalibrierung
Sabrina J. Mielke, Arthur Szlam, Emily Dinan, Y-Lan Boureau
NAACL 2022. [Papier]
22. Juni 2022
Überprüfung der Kalibrierung: Der Fall der Beantwortung von Fragen
Chenglei Si, Chen Zhao, Sewon Min, Jordan Boyd-Graber
Ergebnisse des EMNLP 2022. [Papier]
25. Mai 2022
Auf dem Weg zur kollaborativen semantischen Analyse neuronal-symbolischer Graphen mithilfe von Unsicherheit
Zi Lin, Jeremiah Liu, Jingbo Shang
ACL-Fingings 2022. [Papier]
22. Mai 2022
Unsicherheitsbewusste maschinelle Übersetzungsbewertung
Taisiya Glushkova, Chrysoula Zerva, Ricardo Rei, André FT Martins
EMNLP 2021. [Papier]
13. September 2021
Vor der Verwendung kalibrieren: Verbesserung der Few-Shot-Leistung von Sprachmodellen
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh
ICML 2021. [Papier][Github
19. Februar 2021
Wie können wir wissen, wann Sprachmodelle es wissen? Zur Kalibrierung von Sprachmodellen für die Beantwortung von Fragen
Zhengbao Jiang, Jun Araki, Haibo Ding, Graham Neubig
TACL 2021. [Papier][Github]
2. Dez. 2020
Kalibrierung vortrainierter Transformatoren
Shrey Desai, Greg Durrett
EMNLP 2020. [Papier][Github]
17. Mai 2020
Baum der Klarstellungen: Beantwortung mehrdeutiger Fragen mit abrufgestützten großen Sprachmodellen
Gangwoo Kim, Sungdong Kim, Byeongguk Jeon, Joonsuk Park, Jaewoo Kang
EMNLP 2023. [Papier][Github]
23. Okt. 2023
Mehrdeutige Fragen selektiv beantworten
Jeremy R. Cole, Michael JQ Zhang, Daniel Gillick, Julian Martin Eisenschlos, Bhuwan Dhingra, Jacob Eisenstein arXiv 2023. [Aufsatz]
24. Mai 2023
Wir haben Angst, dass Sprachmodelle Mehrdeutigkeit nicht modellieren Alisa Liu, Zhaofeng Wu, Julian Michael, Alane Suhr, Peter West, Alexander Koller, Swabha Swayamdipta, Noah A. Smith, Yejin Choi
arXiv 2023. [Papier][Github]
24. April 2023
Aufgabenmehrdeutigkeit bei Menschen und Sprachmodellen
Alex Tamkin, Kunal Handa, Avash Shrestha, Noah Goodman
ICLR 2023. [Papier][Github]
20. Dez. 2022
CLAM: Selektive Klärung mehrdeutiger Fragen mit generativen Sprachmodellen
Lorenz Kuhn, Yarin Gal, Sebastian Farquhar
arXiv 2022. [Papier]
15. Dez. 2022
Wie man mehrdeutige Abfragen in der Konversationssuche angeht: Ein Überblick über Techniken, Ansätze, Tools und Herausforderungen
Kimiya Keyvan, Jimmy Xiangji Huang
ACM Computing Survey, 2022. [Papier]
7. Dez. 2022
Unterstützung bei großen Sprachmodellen
Dmitrii Krasheninnikov, Egor Krasheninnikov, David Krueger
NeurIPS MLSW Workshop 2022. [Vortrag]
5. Dez. 2022
Warum überquerte das Huhn die Straße? Umformulieren und Analysieren mehrdeutiger Fragen in der VQA
Elias Stengel-Eskin, Jimena Guallar-Blasco, Yi Zhou, Benjamin Van Durme
arXiv 2022. [Papier][Github]
14. November 2022
Abg-CoQA: Klärung von Mehrdeutigkeiten bei der Beantwortung von Konversationsfragen
Meiqi Guo, Mingda Zhang, Siva Reddy, Malihe Alikhani
AKBC 2021. [Papier]
22. Juni 2021
Die Vertrauens-Kompetenz-Lücke in großen Sprachmodellen: Eine kognitive Studie
Aniket Kumar Singh, Suman Devkota, Bishal Lamichhane, Uttam Dhakal, Chandra Dhakal
arXiv 2023. [Papier]
28. September 2023
Stärke in Zahlen: Schätzung des Vertrauens großer Sprachmodelle durch sofortige Vereinbarung
Gwenyth Portillo Wightman, Alexandra Delucia, Mark Dredze
ACL TrustNLP Workshop 2023. [Vortrag]
1. Juli 2023
Welche unterschiedlichen Ansätze gibt es zur Erkennung von Inhalten, die von LLMs wie ChatGPT generiert werden? Und wie funktionieren und unterscheiden sie sich?
Sebastian Raschka
[Link] [GPTZero]
1. Februar 2023
DetectGPT: Zero-Shot-Erkennung von maschinengeneriertem Text mithilfe der Wahrscheinlichkeitskrümmung
Eric Mitchell, Yoonho Lee, Alexander Khazatsky, Christopher D. Manning, Chelsea Finn
arXiv 2023. [Papier][Website]
26. Januar 2023
Zuversichtliche adaptive Sprachmodellierung
Tal Schuster, Adam Fisch, Jai Gupta, Mostafa Dehghani, Dara Bahri, Vinh Q. Tran, Yi Tay, Donald Metzler
NeurIPS 2022. [Papier] 25. Okt. 2022
Konforme Risikokontrolle
Anastasios N. Angelopoulos, Stephen Bates, Adam Fisch, Lihua Lei, Tal Schuster
arXiv 2022. [Papier][Github]
4. August 2022
Eine Umfrage zum aktiven Lernen für die Verarbeitung natürlicher Sprache
Zhisong Zhang, Emma Strubell, Eduard Hovy
EMNLP 2022. [Papier][Github]
18. Okt. 2022
Aktives Prompting mit Chain-of-Thought für große Sprachmodelle
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang
arXiv 2023. [Papier][Github]
23. Februar 2023
Ressourcenarme interaktive aktive Beschriftung zur Feinabstimmung von Sprachmodellen
Seiji Maekawa, Dan Zhang, Hannah Kim, Sajjadur Rahman, Estevam Hruschka
EMNLP-Ergebnisse 2022. [Papier]
7. Dez. 2022
Können Sie durch die Verwendung von Out-of-Domain-Daten weniger Etiketten kennzeichnen? Aktives und transferorientiertes Lernen mit wenigen Anweisungen
Rafal Kocielnik, Sara Kangaslahti, Shrimai Prabhumoye, Meena Hari, R. Michael Alvarez, Anima Anandkumar
NeurIPS Workshop 2022. [Vortrag]
21. November 2022
AfroLM: Ein auf selbstaktivem Lernen basierendes mehrsprachiges vortrainiertes Sprachmodell für 23 afrikanische Sprachen
Bonaventure FP Dossou, Atnafu Lambebo Tonja, Oreen Yousuf, Salomey Osei, Abigail Oppong, Iyanuoluwa Shode, Oluwabusayo Olufunke Awoyomi, Chris Chinenye Emezue
EMNLP 2022. [Papier][Github]
7. November 2022
Aktives Lernen hilft vorab trainierten Modellen, die beabsichtigte Aufgabe zu erlernen
Alex Tamkin, Dat Pham Nguyen, Salil Deshpande, Jesse Mu, Noah Goodman
NeurIPS 2022. [Papier][Github]
31. Okt. 2022
Selektive Annotation macht Sprachmodelle zu besseren Few-Shot-Lernenden
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu
ICLR 2023. [Papier][Github]
5. September 2022
Aktives Multitasking-Lernen für vorab trainierte transformatorbasierte Modelle
Guy Rotman, Roi Reichart
TACL 2022. [Papier] [Github]
10. August 2022
AcTune: Unsicherheitsbasiertes aktives Selbsttraining zur aktiven Feinabstimmung vorab trainierter Sprachmodelle
Yue Yu, Lingkai Kong, Jieyu Zhang, Rongzhi Zhang, Chao Zhang
NAACL-HLT2022. [Papier] [Github]
10. Juli 2022
Auf dem Weg zu rechnerisch realisierbarem Deep Active Learning
Akim Tsvigun, Artem Shelmanov, Gleb Kuzmin, Leonid Sanochkin, Daniil Larionov, Gleb Gusev, Manvel Avetisian, Leonid Schukow
NAACL 2022. [Papier] [Github]
7. Mai 2022
FAMIE: Ein schnelles aktives Lernframework für die mehrsprachige Informationsextraktion
Minh Van Nguyen, Nghia Trung Ngo, Bonan Min, Thien Huu Nguyen
NAACL 2022. [Papier] [Github]
16. Februar 2022
Zur Bedeutung der effektiven Anpassung vorab trainierter Sprachmodelle für aktives Lernen
Katerina Margatina, Loïc Barrault, Nikolaos Aletras
ACL 2022. [Papier]
2. März 2022
Einschränkungen des aktiven Lernens mit Deep Transformer-Sprachmodellen
Mike D'Arcy, Doug Downey
Arxiv 2022. [Papier]
28. Januar 2022
Aktives Lernen durch Aneignung kontrastierender Beispiele
Katerina Margatina, Giorgos Vernikos, Loïc Barrault, Nikolaos Aletras
EMNLP 2021. [Papier][Github]
8. September 2021
Überarbeitung unsicherheitsbasierter Abfragestrategien für aktives Lernen mit Transformern
Christopher Schröder, Andreas Niekler, Martin Potthast
ACL 2022-Ergebnisse. [Papier][Github]
12. Juli 2021
Aktives Lernen für das Sequenz-Tagging mit tiefgreifenden vorab trainierten Modellen und Bayes'schen Unsicherheitsschätzungen
Artem Shelmanov, Dmitri Puzyrev, Lyubov Kupriyanova, Denis Belyakov, Daniil Larionov, Nikita Khromov, Olga Kozlova, Ekaterina Artemova, Dmitry V. Dylov, Alexander Panchenko
EACL 2021. [Papier]
18. Februar 2021
Feinabstimmung von BERT für ressourcenschonendes Verstehen natürlicher Sprache durch aktives Lernen
Daniel Grießhaber, Johannes Maucher, Ngoc Thang Vu
COLING 2020. [Papier]
4. Dezember 2020
Tolle Halluzinationserkennung
HallusionBench: Eine fortschrittliche Diagnosesuite für Halluzinationen verschränkter Sprache und visuelle Illusion in großen Seh-Sprach-Modellen
Tianrui Guan*, Fuxiao Liu*, Xiyang Wu, Ruiqi Xian, Zongxia Li, Xiaoyu Liu, Xijun Wang, Lichang Chen, Furong Huang, Yaser Yacoob, Dinesh Manocha, Tianyi Zhou
CVPR 2024. [Papier][Github]
18. März 2024
SACK
Jiaxin Zhang, Zhuohang Li, Kamalika Das, Bradley A. Malin, Sricharan Kumar
EMNLP 2023. [Papier][Github]
3. November 2023
Halluzination-Rangliste
Vectara
[Link]
2. November 2023
Jenseits der Faktizität: Eine umfassende Bewertung großer Sprachmodelle als Wissensgeneratoren
Liang Chen, Yang Deng, Yatao Bian, Zeyu Qin, Bingzhe Wu, Tat-Seng Chua, Kam-Fai Wong
EMNLP 2023. [Papier][Github]
12. Okt. 2023
Verifizierungskette reduziert Halluzinationen in großen Sprachmodellen
Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston
arXiv 2023. [Papier]
20. September 2023
Wissen Sprachmodelle, wenn sie Referenzen halluzinieren?
Ayush Agrawal, Lester Mackey, Adam Tauman Kalai
arXiv 2023. [Papier]
29. Mai 2023.
Widersprüchliche Halluzinationen großer Sprachmodelle: Bewertung, Erkennung und Abschwächung
Niels Mündler, Jingxuan He, Slobodan Jenko, Martin Vechev
arXiv 2023. [Papier]
25. Mai 2023
Warum ist ChatGPT nicht in der Lage, wahrheitsgemäße Antworten zu geben?
Shen Zheng, Jie Huang, Kevin Chen-Chuan Chang
arXiv 2023. [Papier]
24. Mai 2023
Wie Halluzinationen von Sprachmodellen zu Schneeballeffekten führen können
Muru Zhang, Ofir Press, William Merrill, Alisa Liu, Noah A. Smith
arXiv 2023. [Papier]
22. Mai 2023
LM vs. LM: Erkennen sachlicher Fehler durch Kreuzverhör
Roi Cohen, May Hamri, Mor Geva, Amir Globerson
arXiv 2023. [Papier]
22. Mai 2023
HaluEval: Ein groß angelegter Benchmark zur Halluzinationsbewertung für große Sprachmodelle
Junyi Li, Xiaoxue Cheng, Wayne Xin Zhao, Jian-Yun Nie, Ji-Rong Wen
arXiv 2023. [Papier] 19. Mai 2023
SelfCheckGPT: Ressourcenlose Black-Box-Halluzinationserkennung für generative große Sprachmodelle
Potsawee Manakul, Adian Liusie, Mark JF Gales
arXiv 2023. [Papier] [Github]
8. März 2023
Überprüfen Sie Ihre Fakten und versuchen Sie es erneut: Verbessern Sie große Sprachmodelle mit externem Wissen und automatisiertem Feedback
Baolin Peng, Michel Galley, Pengcheng He, Hao Cheng, Yujia Xie, Yu Hu, Qiuyuan Huang, Lars Liden, Zhou Yu, Weizhu Chen, Jianfeng Gao
arXiv 2023. [Papier]
23. Februar 2023
RHO (ρ): Reduzierung von Halluzinationen in Open-Domain-Dialogen mit Wissensgrundlage
Ziwei Ji, Zihan Liu, Nayeon Lee, Tiezheng Yu, Bryan Wilie, Min Zeng, Pascale Fung
arXiv 2022. [Papier]
3. Dez. 2022
FaithDial: Ein verlässlicher Maßstab für den informationssuchenden Dialog
Nouha Dziri, Ehsan Kamalloo, Sivan Milton, Osmar Zaiane, Mo Yu, Edoardo M. Ponti, Siva Reddy
TACL 2022. [Papier]
22. April 2022
Übersicht über Halluzinationen bei der Erzeugung natürlicher Sprache
Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu, Etsuko Ishii, Yejin Bang, Wenliang Dai, Andrea Madotto, Pascale Fung
arXiv 2022. [Papier]
8. Februar 2022
TruthX: Linderung von Halluzinationen durch Bearbeitung großer Sprachmodelle im wahrheitsgemäßen Raum Shaolei Zhang, Tian Yu, Yang Feng
arXiv 2024. [Papier] [Github]
27. Februar 2024
Inferenzzeitintervention: Wahrhaftige Antworten aus einem Sprachmodell ermitteln Kenneth Li, Oam Patel, Fernanda Viégas, Hanspeter Pfister, Martin Wattenberg
arXiv 2023. [Papier] [Github]
6. Juni 2023
Der interne Zustand eines LLM weiß, wann er lügt
Amos Azaria, Tom Mitchell
arXiv 2023. [Papier]
26. April 2023
TruthfulQA: Messen, wie Modelle menschliche Unwahrheiten nachahmen
Stephanie Lin, Jacob Hilton, Owain Evans
ACL 2022. [Papier] [Github] [Blog]
8. September 2021
Wahrhaftige KI: Entwicklung und Steuerung einer KI, die nicht lügt
Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital Balwit, Peter Wills, Luca Righetti, William Saunders
arXiv 2021. [Papier] [Blog]
13. Okt. 2021
Messung der Zuverlässigkeit großer Sprachmodelle durch semantische Konsistenz
Harsh Raj, Domenic Rosati, Subhabrata Majumdar
NeurIPS 2022 ML-Sicherheitsworkshop. [Papier]
10. November 2022
REFINER: Begründungsfeedback zu Zwischendarstellungen
Debjit Paul, Mete Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings
arXiv 2023. [Papier]
4. April 2023
OpenICL: Ein Open-Source-Framework für kontextbezogenes Lernen
Zhenyu Wu, YaoXiang Wang, Jiacheng Ye, Jiangtao Feng, Jingjing Xu, Yu Qiao, Zhiyong Wu
arXiv 2023. [Papier] [Github]
6. März 2023
Zuverlässiges Verständnis natürlicher Sprache mit großen Sprachmodellen und Antwortsatzprogrammierung
Abhiramon Rajasekharan, Yankai Zeng, Parth Padalkar, Gopal Gupta
arXiv 2023. [Papier]
7. Februar 2023
Selbstkonsistenz verbessert die Gedankenkette in Sprachmodellen
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou
ICLR 2023. [Papier]
21. März 2022
Die Aufforderung zur Gedankenkette löst Argumentation in großen Sprachmodellen aus.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, Denny Zhou
arXiv 2022. [Papier]
28. Januar 2022
STaR: Autodidaktischer Denker, der das Denken mit dem Denken verbindet.
Eric Zelikman, Yuhuai Wu, Noah D. Goodman
NeurIPS 2022. [Papier][Github]
28. März 2022
Die Unzuverlässigkeit von Erklärungen bei wenigen Eingabeaufforderungen für textuelles Denken
Xi Ye, Greg Durrett
NeurIPS 2022. [Papier] [Github]
6. Mai 2022
Begründungserweiterte Ensembles in Sprachmodellen
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Denny Zhou
arXiv 2022. [Papier]
2. Juli 2022
ReAct: Synergie zwischen Denken und Handeln in Sprachmodellen
Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao
ICLR 2023. [Papier][Github] [Projekt]
6. Okt. 2022
Denken wir beim zweiten Gedanken nicht Schritt für Schritt! Bias und Toxizität im Zero-Shot-Argument
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang
arXiv 2022. [Papier]
15. Dez. 2022
Über den Fortschritt, Sprachmodelle zu besseren Denkern zu machen
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen
arXiv 2022. [Papier][Github]
6. Juni 2022
Ask Me Anything: Eine einfache Strategie zur Eingabe von Sprachmodellen
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré
arXiv 2022. [Papier][Github]
5. Okt. 2022
MathPrompter: Mathematische Argumentation mit großen Sprachmodellen
Shima Imani, Liang Du, Harsh Shrivastava
arXiv 2023. [Papier]
4. März 2023
Komplexitätsbasierte Eingabeaufforderung für mehrstufiges Denken
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot
arXiv 2022. [Papier][Github]
3. Okt. 2022
Messung und Verkleinerung der Kompositionalitätslücke in Sprachmodellen
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis
arXiv 2022. [Papier][Github] 7. Okt. 2022
Interleaving Retrieval mit Chain-of-Thought Reasoning für wissensintensive mehrstufige Fragen
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal
arXiv 2023. [Papier][Github]
20. Dez. 2022
Große Sprachmodelle als Optimierer
Chengrun Yang, Xuezhi Wang, Yifeng Lu, Hanxiao Liu, Quoc V. Le, Denny Zhou, Xinyun Chen
arXiv 2023. [Papier]
7. September 2023
InstructZero: Effiziente Befehlsoptimierung für große Black-Box-Sprachmodelle
Lichang Chen, Jiuhai Chen, Tom Goldstein, Heng Huang, Tianyi Zhou
arXiv 2023. [Papier] [Github]
5. Juni 2023
Promptboosting: Black-Box-Textklassifizierung mit zehn Vorwärtsdurchgängen
Bairu Hou, Joe O'Connor, Jacob Andreas, Shiyu Chang, Yang Zhang
ICML 2023. [Papier][Github]
23. Januar 2023
GrIPS: Gradientenfreie, bearbeitungsbasierte Befehlssuche zur Eingabeaufforderung für große Sprachmodelle
Archiki Prasad, Peter Hase, Xiang Zhou, Mohit Bansal
EACL 2023. [Papier][Github]
14. März 2022
RLPrompt: Optimierung diskreter Texteingabeaufforderungen mit Reinforcement Learning
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu
EMNLP 2022. [Papier][Github]
25. Mai 2022
Black-Box-Prompt-Lernen für vorab trainierte Sprachmodelle
Shizhe Diao, Zhichao Huang, Ruijia Xu, Xuechun Li, Yong Lin, Xiao Zhou, Tong Zhang
TMLR 2023. [Papier][Github]
22. Januar 2022
Black-Box-Tuning für Language-Model-as-a-Service
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu
ICML 2022. [Papier][Github]
10. Januar 2022
BBTv2: Auf dem Weg zu einer Gradienten-freien Zukunft mit großen Sprachmodellen
Tianxiang Sun, Zhengfu He, Hong Qian, Yunhua Zhou, Xuanjing Huang, Xipeng Qiu EMNLP 2022. [Papier] [Github]
7. Dez. 2022
Automatische Gedankenkette in großen Sprachmodellen
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola
ICLR 2023. [Papier][Github]
7. Okt. 2022
Automatische Prompt-Erweiterung und -Auswahl mit Gedankenkette aus beschrifteten Daten
KaShun Shum, Shizhe Diao, Tong Zhang
arXiv 2023. [Papier][Github]
24. Februar 2023
Große Sprachmodelle sind schnelle Ingenieure auf menschlicher Ebene
Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han, Keiran Paster, Silviu Pitis, Harris Chan, Jimmy Ba
ICLR 2023. [Papier] [Github]
3. November 2022
Fantastisch geordnete Eingabeaufforderungen und wo man sie findet: Überwindung der Sensibilität bei der Reihenfolge von Eingabeaufforderungen mit wenigen Schüssen
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp
ACL 2022. [Papier]
Aktive Beispielauswahl für kontextbezogenes Lernen
Yiming Zhang, Shi Feng, Chenhao Tan
EMNLP 2022. [Papier][Github]
8. November 2022
Selektive Annotation macht Sprachmodelle zu besseren Few-Shot-Lernenden
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu
ICLR 2023. [Papier][Github]
5. September 2022
Lernen, Eingabeaufforderungen für kontextbezogenes Lernen abzurufen
Ohad Rubin, Jonathan Herzig, Jonathan Berant
NAACL-HLT 2022. [Papier][Github]
16. Dez. 2021
LaMini-LM: Eine vielfältige Herde destillierter Modelle aus großformatigen Anleitungen
Minghao Wu, Abdul Waheed, Chiyu Zhang, Muhammad Abdul-Mageed, Alham Fikri Aji
arXiv 2023. [Papier][Github]
27. April 2023
Selbstverfeinerung: Iterative Verfeinerung mit Selbst-Feedback
Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Sean Welleck, Bodhisattwa Prasad Majumder, Shashank Gupta, Amir Yazdanbakhsh, Peter Clark
arXiv 2023. [Papier][Github] [Website]
30. März 2023
Ist Schnelligkeit alles, was Sie brauchen? Nein. Eine umfassende und umfassendere Sicht auf das Unterrichtslernen
Renze Lou, Kai Zhang, Wenpeng Yin
arXiv 2023. [Papier][Github]
18. März 2023
Selbstunterricht: Sprachmodell mit selbst generierten Anweisungen ausrichten
Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi, Hannaneh Hajishirzi
arXiv 2022. [Papier] [Github]
20. Dez. 2022
Konstitutionelle KI: Harmlosigkeit durch KI-Feedback
Yuntao Bai et al. (Anthropisch)
arXiv 2022. [Papier]
15. Dez. 2022
Entdecken des Verhaltens von Sprachmodellen mit modellgeschriebenen Auswertungen
Ethan Perez et al.
arXiv 2022. [Papier]
19. Dez. 2022
Kontextbezogenes Unterrichtslernen
Seonghyeon Ye, Hyeonbin Hwang, Sohee Yang, Hyeongu Yun, Yireun Kim, Minjoon Seo
arXiv 2023. [Papier][Github]
28. Februar 2023
Internet-erweiterte Sprachmodelle durch Few-Shot-Prompting zur Beantwortung offener Fragen
Angeliki Lazaridou, Elena Gribovskaya, Wojciech Stokowiec, Nikolai Grigorev
arXiv 2023. [Papier]
10. März 2023
Programm der Gedankenanregung: Berechnung und Argumentation für numerische Denkaufgaben entwirren
Wenhu Chen, Xueguang Ma, Xinyi Wang, William W. Cohen
arXiv 2022. [Papier][Github]
22. November 2022
PAL: Programmgestützte Sprachmodelle
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig
arXiv 2022. [Papier] [Github] [Projekt]
18. November 2022
TALM: Tool Augmented Language Models
Aaron Parisi, Yao Zhao, Noah Fiedel
arXiv 2022. [Papier]
24. Mai 2022
Toolformer: Sprachmodelle können sich selbst den Umgang mit Werkzeugen beibringen
Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom
arXiv 2023. [Papier]
9. Februar 2023
Destillieren Schritt für Schritt! Übertreffen Sie größere Sprachmodelle mit weniger Trainingsdaten und kleineren Modellgrößen
Cheng-Yu Hsieh, Chun-Liang Li, Chih-Kuan Yeh, Hootan Nakhost, Yasuhisa Fujii, Alexander Ratner, Ranjay Krishna, Chen-Yu Lee, Tomas Pfister
arXiv 2023. [Papier]
3. Mai 2023
FreeLM: Feinabstimmungsfreies Sprachmodell
Xiang Li1, Xin Jiang, Xuying Meng, Aixin Sun, Yequan Wang
ARXIV 2023. [Papier]
2. Mai 2023
Automatisierte Datenkuration für robustes Sprachmodell Feinabstimmung
Jiuhai Chen, Jonas Müller
ARXIV 2024. [Papier]
19. März 2024
Invariante Sprachmodellierung Maxime Pyrard, Sarvjeet Singh Ghotra, Martin Josifoski, Vidhan Agarwal, Barun Patra, Dean Carignan, Emre Kiciman, Robert West
EMNLP 2022. [Papier] [GitHub]
16. Oktober 2021
Auf der zu einer ordnungsunempfindlichen Darstellung regelmäßigen Regularisierung der Personalisierung personalisierten Dialoggenerierung
Liang Chen, Hongru Wang, Yang Deng, Wai-Chung Kwan, Kam-Fai Wong
Ergebnisse von ACL 2023. [Papier] [GitHub]
22. Mai 2023
Erforschen der Verteilungsverschiebungen in Großsprachmodellen für die Codeanalyse
Shushan Arakelyan, Rocktim Jyoti Das, Yi Mao, Xiang Ren
ARXIV 2023. [Papier]
16. März 2023
Erkennung und selektive Erzeugung außerhalb der Verteilung für bedingte Sprachmodelle
Jie Ren, Jiaming Luo, Yao Zhao, Kundan Krishna, Mohammad Saleh, Balaji Lakshminarayanan, Peter J. Liu
ICLR 2023. [Papier]
30. September 2022
Zur Domänenanpassung und Verallgemeinerung vorbereiteter Sprachmodelle: Eine Umfrage
Xu Guo, Han Yu
ARXIV 2022. [Papier]
6. November 2022
Gegentliche Angriffe auf LLMs
Lilian Weng [Blog]
25. Oktober 2023
PromptBench: Um die Robustheit großer Sprachmodelle auf kontroversen Eingabeaufforderungen zu bewerten
Kaijie Zhu, Jindong Wang, Jiaheng Zhou, Zichen Wang, Hao Chen, Yidong Wang, Linyi Yang, Wei, Neil Zhenqiang Gong, Yue Zhang, Xing Xie
ARXIV 2023. [Papier] [GitHub]
7. Juni 20223
Über die Robustheit von ChatGPT: Eine kontroverse und außerverteilte Perspektive
Jindong Wang, Xixu Hu, Wenxin Hou, Hao Chen, Runkai Zheng, Yidong Wang, Linyi Yang, Haojun Huang, Wei Ye, Xiubo Geng, Binxin Jiao, Yue Zhang, Xing Xie
ARXIV 2023. [Papier] [GitHub]
22. Februar 2023
Zuverlässigkeitstest für natürliche Sprachverarbeitungssysteme
Samson Tan, Shafiq Joty, Kathy Baxter, Araz Taeihagh, Gregory A. Bennett, Min-yen Kan
ACL-IJCNLP 2021. [Papier]
06. Mai 2021
Zugeschriebene Frage Beantwortung: Bewertung und Modellierung für zugeschriebene Großsprachenmodelle
Bernd Bohnet, Vinh Q. Tran, Pat Verga, Roee Aharoni, Daniel Andor, Livio Baldini Soares, Massimiliano Ciaramita, Jacob Eisenstein, Kuzman Ganchev, Jonathan Herzig, Kai Hui, Tom Kwiatkowski, Ji Ma, Jianmo Ni, Lierni Sestorain Saralegui, Tal Schuster, William W. Cohen, Michael Collins, Dipanjan Das, Donald Metzler, Slav Petrov, Kellie Webster
ARXIV 2022. [Papier]
15. Dezember 2022
Können Großsprachenmodelle die Kausalität aus der Korrelation schließen?
Zhijing Jin, Jiarui Liu, Zhiheng Lyu, Spencer Poff, Mrinmaya Sachan, Rada Mihalcea, Mona Diab, Bernhard Schölkopf
ARXIV 2023. [Papier] [GitHub]
9. Juni 2023
Auswahlinterferenz: Ausnutzung großer Sprachmodelle für interpretierbare logische Argumentation
Antonia Creswell, Murray Shanahan, Irina Higgins
ICLR 2023. [Papier]
19. Mai 2022
Untersuchung des kausalen Verständnisses in LLMs
Marius Hobbhahn, Tom Lieberum, David Seiler
Neurips 2022 Workshop. [Papier] [Blog]
3. Oktober 2022