Este repositorio, llamado UR2-LLMs, contiene una colección de recursos y artículos sobre incertidumbre , confiabilidad y robustez en modelos de lenguajes grandes .
" Los modelos de lenguaje grandes tienen una confiabilidad, una comprensión y un alcance limitados y, por lo tanto, necesitan supervisión humana ". - Michael Osborne, profesor de aprendizaje automático en el Departamento de Ciencias de la Ingeniería, Universidad de Oxford, 25 de enero de 2023
¡Bienvenido a compartir sus artículos, pensamientos e ideas en esta área!
GPT es un almacén de información poco confiable
Noble Ackerson
[Enlace]
20 de febrero de 2023
“Uso indebido” de modelos de lenguaje grandes y el futuro de la traducción automática
Arle Lommel
[Enlace]
20 dic 2022
Grandes modelos de lenguaje: conceptos básicos y sus aplicaciones.
Margo Poda
[Enlace]
9 de febrero de 2023
Ingeniería rápida: mejora de las respuestas y la confiabilidad
Pedro Foy
[Enlace]
19 de marzo de 2023
Libro de cocina de OpenAI sobre técnicas para mejorar la confiabilidad
Abierto AI
[Github]
18 de marzo de 2023
Etiqueta GPT/calibración
Gwen Branwen
[Enlace]
Ingeniería inmediata
Lilian Wen
[Enlace]
Agentes autónomos impulsados por LLM
Lilian Wen
[Enlace]
Fiabilidad en las indicaciones de aprendizaje
[Enlace]
Creación de aplicaciones LLM para producción
Chip Huyen
[Enlace]
11 de abril de 2023
Informe técnico GPT-4
Abierto AI
arXiv 2023. [Papel][Libro de cocina]
16 de marzo de 2023
Tarjeta del sistema GPT-4
Abierto AI
arXiv 2023. [Documento] [Github]
15 de marzo de 2023
Estimación de la incertidumbre para el procesamiento del lenguaje natural
Adam Fisch, Robin Jia, Tal Schuster
COLECCIÓN 2022. [Sitio web]
Las redes de LLM más amplias y profundas son evaluadores de LLM más justos
Xinghua Zhang, Bowen Yu, Haiyang Yu, Yangyu Lv, Tingwen Liu, Fei Huang, Hongbo Xu, Yongbin Li
arXiv 2023. [Papel][Github]
3 de agosto de 2023
Una encuesta sobre la evaluación de modelos de lenguaje grandes
Yupeng Chang, Xu Wang, Jindong Wang, Yuan Wu, Kaijie Zhu, Hao Chen, Linyi Yang, Xiaoyuan Yi, Cunxiang Wang, Yidong Wang, Wei Ye, Yue Zhang, Yi Chang, Philip S. Yu, Qiang Yang, Xing Xie
Arxiv 2023. [Papel][Github]
6 de julio de 2023
DecodingTrust: una evaluación integral de la confiabilidad en los modelos GPT
Boxin Wang, Weixin Chen, Hengzhi Pei, Chulin Xie, Mintong Kang, Chenhui Zhang, Chejian Xu, Zidi Xiong, Ritik Dutta, Rylan Schaeffer, Sang T. Truong, Simran Arora, Mantas Mazeika, Dan Hendrycks, Zinan Lin, Yu Cheng, Sanmi Koyejo, Dawn Song, Bo Li
Arxiv, 2023. [Documento] [Github] [Sitio web]
20 de junio de 2023
¿En ChatGPT confiamos? Medir y caracterizar la confiabilidad de ChatGPT
Xinyue Shen, Zeyuan Chen, Michael Backes, Yang Zhang
arXiv, 2023. [Artículo]
18 de abril de 2023
Aprovechar el poder de los LLM en la práctica: una encuesta sobre ChatGPT y más allá
Jingfeng Yang, Hongye Jin, Ruixiang Tang, Xiaotian Han, Qizhang Feng, Haoming Jiang, Bing Yin, Xia Hu
arXiv 2023. [Papel][Github]
27 de abril de 2023
¿Qué tan robusto es GPT-3.5 frente a sus predecesores? Un estudio exhaustivo sobre las tareas de comprensión del lenguaje
Xuanting Chen, Junjie Ye, Can Zu, Nuo Xu, Rui Zheng, Minlong Peng, Jie Zhou, Tao Gui, Qi Zhang, Xuanjing Huang
arXiv 2023. [Papel][Github]
1 de marzo de 2023
Evaluación holística de modelos lingüísticos
Percy Liang, Rishi Bommasani, Tony Lee, Dimitris Tsipras, Dilara Soylu, Michihiro Yasunaga, Yian Zhang, Deepak Narayanan, Yuhuai Wu, Ananya Kumar, Benjamin Newman, Binhang Yuan, Bobby Yan, Ce Zhang, Christian Cosgrove, Christopher D. Manning, Christopher Ré, Diana Acosta-Navas, Drew A. Hudson, Eric Zelikman, Esin Durmus, Faisal Ladhak, Frieda Rong, Hongyu Ren, Huaxiu Yao, Jue Wang, Keshav Santhanam, Laurel Orr, Lucia Zheng, Mert Yuksekgonul, Mirac Suzgun, Nathan Kim, Neel Guha, Niladri Chatterji, Omar Khattab, Peter Henderson, Qian Huang, Ryan Chi, Sang Michael Xie, Shibani Santurkar, Surya Ganguli, Tatsunori Hashimoto, Thomas Icard, Tianyi Zhang, Vishrav Chaudhary, William Wang, Xuechen Li, Yifan Mai, Yuhui Zhang, Yuta Koreeda
arXiv 2022. [Documento] [Sitio web] [Github] [Blog]
16 de noviembre de 2022
Cómo hacer que GPT-3 sea confiable
Chenglei Si, Zhe Gan, Zhengyuan Yang, Shuohang Wang, Jianfeng Wang, Jordan Boyd-Graber, Lijuan Wang
ICLR 2023. [Documento] [Github]
17 de octubre de 2022
Plex: hacia la confiabilidad utilizando extensiones de modelos grandes previamente entrenadas
Dustin Tran, Jeremiah Liu, Michael W. Dusenberry, Du Phan, Mark Collier, Jie Ren, Kehang Han, Zi Wang, Zelda Mariet, Huiyi Hu, Neil Band, Tim GJ Rudner, Karan Singhal, Zachary Nado, Joost van Amersfoort, Andreas Kirsch, Rodolphe Jenatton, Nithum Thain, Honglin Yuan, Kelly Buchanan, Kevin Murphy, D. Sculley, Yarin Gal, Zoubin Ghahramani, Jasper Snoek, Balaji Lakshminarayanan
arXiv 2022. [Artículo]
15 de julio de 2022
Los modelos de lenguaje (en su mayoría) saben lo que saben
Saurav Kadavath, Tom Conerly, Amanda Askell, Tom Henighan, Dawn Drain, Ethan Perez, Nicholas Schiefer, Zac Hatfield-Dodds, Nova DasSarma, Eli Tran-Johnson, Scott Johnston, Sheer El-Showk, Andy Jones, Nelson Elhage, Tristan Hume , Anna Chen, Yuntao Bai, Sam Bowman, Stanislav Fort, Deep Ganguli, Danny Hernandez, Josh Jacobson, Jackson Kernion, Shauna Kravec, Liane Lovitt, Kamal Ndousse, Catherine Olsson, Sam Ringer, Dario Amodei, Tom Brown, Jack Clark, Nicholas Joseph, Ben Mann, Sam McCandlish, Chris Olah, Jared Kaplan
arXiv 2022. [Artículo]
11 de julio de 2022
Modelos de lenguaje aumentado: una encuesta
Grégoire Mialon, Roberto Dessì, Maria Lomeli, Christoforos Nalmpantis, Ram Pasunuru, Roberta Raileanu, Baptiste Rozière, Timo Schick, Jane Dwivedi-Yu, Asli Celikyilmaz, Edouard Grave, Yann LeCun, Thomas Scialom
arXiv 2023. [Artículo]
15 de febrero de 2023
Una encuesta sobre las métricas de evaluación utilizadas para los sistemas NLG
Ananya B. Sai, Akash Kumar Mohankumar, Mitesh M. Khapra
Encuesta de Computación ACM, 2022. [Artículo]
18 de enero de 2022
NL-Augmenter: un marco para el aumento del lenguaje natural sensible a tareas
Kaustubh D. Dhole, et al.
ACL 2021. [Documento][Github]
6 de diciembre de 2021
TextFlint: kit de herramientas unificado de evaluación de robustez multilingüe para el procesamiento del lenguaje natural
Tao Gui et al.
arXiv 2021. [Papel][Github]
21 de marzo de 2021
Gimnasio de robustez: unificando el panorama de evaluación de PNL
Karan Goel, Nazneen Rajani, Jesse Vig, Samson Tan, Jason Wu, Stephan Zheng, Caiming Xiong, Mohit Bansal, Christopher Ré
ACL 2021. [Documento] [Github]
13 de enero de 2021
Más allá de la precisión: pruebas de comportamiento de modelos de PNL con CheckList
Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, Sameer Singh
ACL 2020. [Documento][Github]
8 mayo 2020
BLoB: Adaptación bayesiana de bajo rango mediante retropropagación para modelos de lenguaje grandes
Yibin Wang, Haizhou Shi, Ligong Han, Dimitris Metaxas, Hao Wang
arXiv 2024. [Artículo]
18 de junio de 2024
Estimación y cuantificación de la incertidumbre para LLM: un enfoque supervisado simple
Linyu Liu, Yu Pan, Xiaocheng Li, Guanting Chen
arXiv 2024. [Artículo]
24 de abril de 2024
Cambiando la atención a la relevancia: hacia la estimación de la incertidumbre de los modelos lingüísticos grandes
Jinhao Duan, Hao Cheng, Shiqi Wang, Alex Zavalny, Chenan Wang, Renjing Xu, Bhavya Kailkhura, Kaidi Xu
arXiv 2023. [Artículo]
9 de octubre de 2023
Mire antes de saltar: un estudio exploratorio de la medición de la incertidumbre para modelos de lenguaje grandes
Yuheng Huang, Jiayang Song, Zhijie Wang, Shengming Zhao, Huaming Chen, Felix Juefei-Xu, Lei Ma
arXiv 2023. [Artículo]
16 de julio de 2023
Cuantificación de la incertidumbre en las explicaciones del lenguaje natural de modelos de lenguaje grandes
Sree Harsha Tanneru, Chirag Agarwal, Himabindu Lakkaraju
arXiv 2023. [Artículo]
6 de noviembre de 2023
Generación autorregresiva conformada: búsqueda por haz con garantías de cobertura
Nicolás Deutschmann, Marvin Alberts, María Rodríguez Martínez
arXiv 2023. [Artículo]
7 de septiembre de 2023
Cuantificar la incertidumbre en las respuestas de cualquier modelo lingüístico y mejorar su confiabilidad
Jiuhai Chen, Jonas Mueller
arXiv 2023. [Artículo]
30 de agosto de 2023
Incertidumbre en la generación del lenguaje natural: de la teoría a las aplicaciones
Joris Baan, Nico Daheim, Evgenia Ilia, Dennis Ulmer, Haau-Sing Li, Raquel Fernández, Barbara Plank, Rico Sennrich, Chrysoula Zerva, Wilker Aziz
arXiv 2023. [Artículo]
28 julio 2023
Generar con confianza: cuantificación de la incertidumbre para modelos de lenguaje grandes de caja negra
Zhen Lin, Shubhendu Trivedi, Jimeng Sun
arXiv 2023. [Documento] [Github]
30 mayo 2023
Incertidumbre humana en los sistemas de IA basados en conceptos
Katherine M. Collins, Matthew Barker, Mateo Espinosa Zarlenga, Naveen Raman, Umang Bhatt, Mateja Jamnik, Ilia Sucholutsky, Adrian Weller, Krishnamurthy Dvijotham
arXiv 2023. [Artículo]
22 de marzo de 2023
Navegando por la zona gris: expresiones de exceso de confianza e incertidumbre en los modelos lingüísticos
Kaitlyn Zhou, Dan Jurafsky, Tatsunori Hashimoto
arXiv 2023. [Artículo]
25 de febrero de 2023
DEUP: Predicción directa de incertidumbre epistémica
Salem Lahlou, Moksh Jain, Hadi Nekoei, Victor Ion Butoi, Paul Bertin, Jarrid Rector-Brooks, Maksym Korablyov, Yoshua Bengio
TMLR 2023. [Artículo]
3 de febrero de 2023
Sobre la cuantificación de la incertidumbre composicional para el análisis de gráficos Seq2seq
Zi Lin, Du Phan, Panupong Pasupat, Jeremiah Zhe Liu, Jingbo Shang
ICLR 2023. [Artículo]
1 de febrero de 2023
Inferencia neuronal-simbólica para un análisis robusto de gráficos autorregresivos mediante cuantificación de la incertidumbre composicional
Zi Lin, Jeremiah Liu, Jingbo Shang
EMNLP 2022. [Artículo]
16 de enero de 2023
Modelos de enseñanza para expresar su incertidumbre en palabras
Stephanie Lin, Jacob Hilton, Owain Evans
TMLR 2022. [Documento] [Github] [TMLR] [Diapositiva]
28 mayo 2022
Incertidumbre semántica: invarianzas lingüísticas para la estimación de la incertidumbre en la generación del lenguaje natural
Lorenz Kuhn, Yarin Gal, Sebastián Farquhar
ICLR 2023. [Artículo]
19 de febrero de 2022
Selección de datos de arranque en frío para un ajuste fino del modelo de lenguaje de pocas posibilidades: un enfoque de propagación de la incertidumbre basado en indicaciones
Yue Yu, Rongzhi Zhang, Ran Xu, Jieyu Zhang, Jiaming Shen, Chao Zhang
arXiv 2022. [Papel][Github]
15 de septiembre de 2022
Ajuste fino de modelos de lenguaje a través de redes neuronales epistémicas
Ian Osband, Seyed Mohammad Asghari, Benjamin Van Roy, Nat McAleese, John Aslanides, Geoffrey Irving
arXiv 2022. [Papel][Github]
3 de noviembre de 2022
Cuantificación de la incertidumbre con modelos de lenguaje previamente entrenados: un análisis empírico a gran escala
Yuxin Xiao, Paul Pu Liang, Umang Bhatt, Willie Neiswanger, Ruslan Salakhutdinov, Louis-Philippe Morency
EMNLP 2022 (Hallazgos). [Papel] [Github]
10 de octubre de 2022
Estimación de incertidumbre para modelos de recompensa lingüística
Adam Gleave y Geoffrey Irving
arXiv 2022. [Artículo]
14 de marzo de 2022
Estimación de la incertidumbre y reducción de modelos previamente entrenados para regresión de texto
Yuxia Wang, Daniel Beck, Timothy Baldwin, Karin Verspoor
TACL 2022. [Artículo]
junio de 2022
Estimación de la incertidumbre en la predicción estructurada autorregresiva
Andrey Malinin, Mark Gales
ICLR 2021. [Artículo]
18 de febrero de 2020
Estimación de calidad no supervisada para la traducción automática neuronal
Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Francisco Guzmán, Mark Fishel, Nikolaos Aletras, Vishrav Chaudhary, Lucia Specia
TACL 2020. [Artículo][Conjunto de datos]
21 mayo 2020
Análisis de la incertidumbre en la traducción automática neuronal
Myle Ott, Michael Auli, David Grangier, Marc'Aurelio Ranzato
ICML 2018. [Artículo]
2018
Calibración por lotes: repensar la calibración para el aprendizaje en contexto y la ingeniería rápida
Han Zhou, Xingchen Wan, Lev Proleev, Diana Mincu, Jilin Chen, Katherine Heller, Subhrajit Roy
ICLR 2024. [Artículo] 24 de enero de 2024
¿Los modelos de lenguaje grandes saben lo que no saben?
Zhangyue Yin, Qiushi Sun, Qipeng Guo, Jiawen Wu, Xipeng Qiu, Xuanjing Huang
arXiv 2023. [Artículo] 29 de mayo de 2023
Simplemente solicite la calibración: estrategias para obtener puntuaciones de confianza calibradas a partir de modelos de lenguaje ajustados con retroalimentación humana
Katherine Tian, Eric Mitchell, Allan Zhou, Archit Sharma, Rafael Rafailov, Huaxiu Yao, Chelsea Finn, Christopher D. Manning
arXiv 2023. [Artículo]
24 mayo 2023
Hacia una mitigación confiable de la desinformación: generalización, incertidumbre y GPT-4
Kellin Pelrine, Meilina Reksoprodjo, Caleb Gupta, Joel Christoph, Reihaneh Rabbany
arXiv 2023. [Artículo]
24 mayo 2023
Interpretación calibrada: estimación de la confianza en el análisis semántico
Elías Stengel-Eskin, Benjamin Van Durme
arXiv 2022. [Documento] [Github]
14 de noviembre de 2022.
La calibración de la probabilidad de secuencia mejora la generación del lenguaje condicional
Yao Zhao, Misha Khalman, Rishabh Joshi, Shashi Narayan, Mohammad Saleh, Peter J. Liu
ICLR 2023. [Artículo]
30 de septiembre de 2022
Clasificación selectiva calibrada
Adam Fisch, Tommi Jaakkola, Regina Barzilay
TMLR 2022. [Artículo]
25 de agosto de 2022
Reducir el exceso de confianza de los agentes conversacionales mediante la calibración lingüística
Sabrina J. Mielke, Arthur Szlam, Emily Dinan, Y-Lan Boureau
NAACL 2022. [Artículo]
22 de junio de 2022
Reexamen de la calibración: el caso de la respuesta a preguntas
Chenglei Si, Chen Zhao, Sewon Min, Jordan Boyd-Graber
Hallazgos del EMNLP 2022. [Papel]
25 mayo 2022
Hacia el análisis semántico colaborativo de gráficos neuronales-simbólicos a través de la incertidumbre
Zi Lin, Jeremiah Liu, Jingbo Shang
Digitación del ligamento cruzado anterior 2022. [Artículo]
22 mayo 2022
Evaluación de traducción automática consciente de la incertidumbre
Taisiya Glushkova, Chrysoula Zerva, Ricardo Rei, André FT Martins
EMNLP 2021. [Artículo]
13 de septiembre de 2021
Calibrar antes de usar: mejorar el rendimiento de los modelos de lenguaje en pocas tomas
Tony Z. Zhao, Eric Wallace, Shi Feng, Dan Klein, Sameer Singh
ICML 2021. [Documento][Github
19 de febrero de 2021
¿Cómo podemos saber cuándo lo saben los modelos lingüísticos? Sobre la calibración de modelos lingüísticos para responder preguntas
Zhengbao Jiang, Jun Araki, Haibo Ding, Graham Neubig
TACL 2021. [Documento][Github]
2 de diciembre de 2020
Calibración de transformadores preentrenados
Shrey Desai, Greg Durrett
EMNLP 2020. [Artículo] [Github]
17 mayo 2020
Árbol de aclaraciones: respuesta a preguntas ambiguas con modelos de lenguaje grandes con recuperación aumentada
Gangwoo Kim, Sungdong Kim, Byeongguk Jeon, Parque Joonsuk, Jaewoo Kang
EMNLP 2023. [Documento][Github]
23 de octubre de 2023
Responder selectivamente preguntas ambiguas
Jeremy R. Cole, Michael JQ Zhang, Daniel Gillick, Julian Martin Eisenschlos, Bhuwan Dhingra, Jacob Eisenstein arXiv 2023. [Artículo]
24 mayo 2023
Tememos que los modelos lingüísticos no modelen la ambigüedad Alisa Liu, Zhaofeng Wu, Julian Michael, Alane Suhr, Peter West, Alexander Koller, Swabha Swayamdipta, Noah A. Smith, Yejin Choi
arXiv 2023. [Papel][Github]
24 de abril de 2023
Ambigüedad de tareas en humanos y modelos de lenguaje
Alex Tamkin, Kunal Handa, Avash Shrestha, Noah Goodman
ICLR 2023. [Documento][Github]
20 dic 2022
CLAM: Aclaración selectiva de preguntas ambiguas con modelos de lenguaje generativo
Lorenz Kuhn, Yarin Gal, Sebastián Farquhar
arXiv 2022. [Artículo]
15 dic 2022
Cómo abordar consultas ambiguas en la búsqueda conversacional: un estudio de técnicas, enfoques, herramientas y desafíos
Kimiya Keyvan, Jimmy Xiangji Huang
Encuesta de Computación ACM, 2022. [Artículo]
7 de diciembre de 2022
Asistencia con modelos de lenguaje grandes.
Dmitri Krasheninnikov, Egor Krasheninnikov, David Krueger
Taller NeurIPS MLSW 2022. [Artículo]
5 de diciembre de 2022
¿Por qué la gallina cruzó la calle? Reformulación y análisis de preguntas ambiguas en VQA
Elías Stengel-Eskin, Jimena Guallar-Blasco, Yi Zhou, Benjamin Van Durme
arXiv 2022. [Papel][Github]
14 de noviembre de 2022
Abg-CoQA: Aclarar la ambigüedad en la respuesta a preguntas conversacionales
Meiqi Guo, Mingda Zhang, Siva Reddy, Malihe Alikhani
AKBC 2021. [Artículo]
22 de junio de 2021
La brecha entre confianza y competencia en modelos de lenguaje grandes: un estudio cognitivo
Aniket Kumar Singh, Suman Devkota, Bishal Lamichhane, Uttam Dhakal, Chandra Dhakal
arXiv 2023. [Artículo]
28 de septiembre de 2023
La fuerza está en los números: estimación de la confianza de modelos lingüísticos grandes mediante un acuerdo rápido
Gwenyth Portillo Wightman, Alexandra Delucia, Mark Dredze
Taller ACL TrustNLP 2023. [Artículo]
1 de julio de 2023
¿Cuáles son los diferentes enfoques para detectar contenido generado por LLM como ChatGPT? ¿Y en qué funcionan y se diferencian?
Sebastián Raschka
[Enlace] [GPTZero]
1 de febrero de 2023
DetectGPT: detección de texto generada automáticamente mediante curvatura de probabilidad
Eric Mitchell, Yoonho Lee, Alexander Khazatsky, Christopher D. Manning, Chelsea Finn
arXiv 2023. [Artículo][Sitio web]
26 de enero de 2023
Modelado de lenguaje adaptativo seguro
Tal Schuster, Adam Fisch, Jai Gupta, Mostafa Dehghani, Dara Bahri, Vinh Q. Tran, Yi Tay, Donald Metzler
NeurIPS 2022. [Artículo] 25 de octubre de 2022
Control de riesgos conforme
Anastasios N Angelopoulos, Stephen Bates, Adam Fisch, Lihua Lei, Tal Schuster
arXiv 2022. [Papel][Github]
4 de agosto de 2022
Una encuesta sobre el aprendizaje activo para el procesamiento del lenguaje natural
Zhisong Zhang, Emma Strubell, Eduard Hovy
EMNLP 2022. [Documento][Github]
18 de octubre de 2022
Indicaciones activas con cadena de pensamiento para modelos de lenguaje grandes
Shizhe Diao, Pengcheng Wang, Yong Lin, Tong Zhang
arXiv 2023. [Papel][Github]
23 de febrero de 2023
Etiquetado activo interactivo de bajos recursos para ajustar modelos de lenguaje
Seiji Maekawa, Dan Zhang, Hannah Kim, Sajjadur Rahman, Estevam Hruschka
Hallazgos del EMNLP 2022. [Artículo]
7 de diciembre de 2022
¿Se pueden etiquetar menos utilizando datos fuera del dominio? Aprendizaje activo y por transferencia con instrucciones breves
Rafal Kocielnik, Sara Kangaslahti, Shrimai Prabhumoye, Meena Hari, R. Michael Alvarez, Anima Anandkumar
Taller NeurIPS 2022. [Artículo]
21 de noviembre de 2022
AfroLM: un modelo de lenguaje multilingüe preentrenado basado en el aprendizaje autoactivo para 23 idiomas africanos
Bonaventure FP Dossou, Atnafu Lambebo Tonja, Oreen Yousuf, Salomey Osei, Abigail Oppong, Iyanuoluwa Shode, Oluwabusayo Olufunke Awoyomi, Chris Chinenye Emezue
EMNLP 2022. [Documento][Github]
7 de noviembre de 2022
El aprendizaje activo ayuda a los modelos previamente entrenados a aprender la tarea prevista
Alex Tamkin, Dat Pham Nguyen, Salil Deshpande, Jesse Mu, Noah Goodman
NeurIPS 2022. [Papel][Github]
31 de octubre de 2022
La anotación selectiva hace que los modelos de lenguaje sean mejores para los estudiantes con pocas oportunidades
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu
ICLR 2023. [Documento][Github]
5 de septiembre de 2022
Aprendizaje activo multitarea para modelos basados en transformadores previamente entrenados
Guy Rotman, Rey Reichart
TACL 2022. [Documento] [Github]
10 de agosto de 2022
AcTune: autoformación activa basada en la incertidumbre para el ajuste activo de modelos de lenguaje previamente entrenados
Yue Yu, Lingkai Kong, Jieyu Zhang, Rongzhi Zhang, Chao Zhang
NAACL-HLT2022. [Papel] [Github]
10 de julio de 2022
Hacia un aprendizaje activo profundo computacionalmente factible
Akim Tsvigun, Artem Shelmanov, Gleb Kuzmin, Leonid Sanochkin, Daniil Larionov, Gleb Gusev, Manvel Avetisian, Leonid Zhukov
NAACL 2022. [Documento] [Github]
7 mayo 2022
FAMIE: un marco de aprendizaje activo rápido para la extracción de información multilingüe
Minh Van Nguyen, Nghia Trung Ngo, Bonan Min, Thien Huu Nguyen
NAACL 2022. [Documento] [Github]
16 de febrero de 2022
Sobre la importancia de adaptar eficazmente los modelos lingüísticos previamente entrenados para el aprendizaje activo
Katerina Margatina, Loïc Barrault, Nikolaos Aletras
ACL 2022. [Artículo]
2 de marzo de 2022
Limitaciones del aprendizaje activo con modelos de lenguaje transformador profundo
Mike D'Arcy, Doug Downey
Arxiv 2022. [Artículo]
28 de enero de 2022
Aprendizaje activo mediante la adquisición de ejemplos contrastivos
Katerina Margatina, Giorgos Vernikos, Loïc Barrault, Nikolaos Aletras
EMNLP 2021. [Documento][Github]
8 de septiembre de 2021
Revisando estrategias de consulta basadas en incertidumbre para el aprendizaje activo con Transformers
Christopher Schröder, Andreas Niekler, Martin Potthast
Hallazgos de ACL 2022. [Papel] [Github]
12 de julio de 2021
Aprendizaje activo para etiquetado de secuencias con modelos profundos previamente entrenados y estimaciones de incertidumbre bayesiana
Artem Shelmanov, Dmitri Puzyrev, Lyubov Kupriyanova, Denis Belyakov, Daniil Larionov, Nikita Khromov, Olga Kozlova, Ekaterina Artemova, Dmitry V. Dylov, Alexander Panchenko
EACL 2021. [Artículo]
18 de febrero de 2021
Ajuste de BERT para la comprensión del lenguaje natural de bajos recursos a través del aprendizaje activo
Daniel Grießhaber, Johannes Maucher, Ngoc Thang Vu
COLING 2020. [Artículo]
4 de diciembre de 2020
impresionante detección de alucinaciones
HalllusionBench: un conjunto de diagnóstico avanzado para alucinaciones de lenguaje entrelazado e ilusión visual en modelos de visión y lenguaje de gran tamaño
Tianrui Guan*, Fuxiao Liu*, Xiyang Wu, Ruiqi Xian, Zongxia Li, Xiaoyu Liu, Xijun Wang, Lichang Chen, Furong Huang, Yaser Yacoob, Dinesh Manocha, Tianyi Zhou
CVPR 2024. [Documento][Github]
18 de marzo de 2024
SACO
Jiaxin Zhang, Zhuohang Li, Kamalika Das, Bradley A. Malin, Sricharan Kumar
EMNLP 2023. [Documento][Github]
3 de noviembre de 2023
Tabla de clasificación de alucinaciones
vectara
[Enlace]
2 de noviembre de 2023
Más allá de la factualidad: una evaluación integral de grandes modelos de lenguaje como generadores de conocimiento
Liang Chen, Yang Deng, Yatao Bian, Zeyu Qin, Bingzhe Wu, Tat-Seng Chua, Kam-Fai Wong
EMNLP 2023. [Documento][Github]
12 de octubre de 2023
La cadena de verificación reduce las alucinaciones en modelos de lenguaje grandes
Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston
arXiv 2023. [Artículo]
20 de septiembre de 2023
¿Saben los modelos de lenguaje cuándo están alucinando referencias?
Ayush Agrawal, Lester Mackey, Adam Tauman Kalai
arXiv 2023. [Artículo]
29 de mayo de 2023.
Alucinaciones autocontradictorias de modelos de lenguaje grandes: evaluación, detección y mitigación
Niels Mündler, Jingxuan He, Slobodan Jenko, Martin Vechev
arXiv 2023. [Artículo]
25 mayo 2023
¿Por qué ChatGPT no logra brindar respuestas veraces?
Shen Zheng, Jie Huang, Kevin Chen-Chuan Chang
arXiv 2023. [Artículo]
24 mayo 2023
Cómo las alucinaciones de los modelos de lenguaje pueden crecer como una bola de nieve
Muru Zhang, Ofir Press, William Merrill, Alisa Liu, Noah A. Smith
arXiv 2023. [Artículo]
22 mayo 2023
LM vs LM: Detección de errores fácticos mediante contrainterrogatorio
Roi Cohen, May Hamri, Mor Geva, Amir Globerson
arXiv 2023. [Artículo]
22 mayo 2023
HaluEval: un punto de referencia de evaluación de alucinaciones a gran escala para modelos de lenguaje grandes
Junyi Li, Xiaoxue Cheng, Wayne Xin Zhao, Jian-Yun Nie, Ji-Rong Wen
arXiv 2023. [Artículo] 19 de mayo de 2023
SelfCheckGPT: Detección de alucinaciones de caja negra sin recursos para modelos de lenguaje generativo grande
Potsawee Manakul, Adian Liusie, Mark JF Gales
arXiv 2023. [Documento] [Github]
8 de marzo de 2023
Verifique sus datos e inténtelo nuevamente: mejora de modelos de lenguaje grandes con conocimiento externo y retroalimentación automatizada
Baolin Peng, Michel Galley, Pengcheng He, Hao Cheng, Yujia Xie, Yu Hu, Qiuyuan Huang, Lars Liden, Zhou Yu, Weizhu Chen, Jianfeng Gao
arXiv 2023. [Artículo]
23 de febrero de 2023
RHO (ρ): Reducir las alucinaciones en diálogos de dominio abierto con base de conocimientos
Ziwei Ji, Zihan Liu, Nayeon Lee, Tiezheng Yu, Bryan Wilie, Min Zeng, Pascale Fung
arXiv 2022. [Artículo]
3 de diciembre de 2022
FaithDial: un punto de referencia fiel para el diálogo en busca de información
Nouha Dziri, Ehsan Kamalloo, Sivan Milton, Osmar Zaiane, Mo Yu, Edoardo M. Ponti, Siva Reddy
TACL 2022. [Artículo]
22 de abril de 2022
Encuesta sobre alucinaciones en la generación del lenguaje natural
Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu, Etsuko Ishii, Yejin Bang, Wenliang Dai, Andrea Madotto, Pascale Fung
arXiv 2022. [Artículo]
8 de febrero de 2022
TruthX: Aliviar las alucinaciones mediante la edición de modelos de lenguaje grandes en un espacio veraz Shaolei Zhang, Tian Yu, Yang Feng
arXiv 2024. [Documento] [Github]
27 de febrero de 2024
Intervención en tiempo de inferencia: obtención de respuestas veraces a partir de un modelo de lenguaje Kenneth Li, Oam Patel, Fernanda Viégas, Hanspeter Pfister, Martin Wattenberg
arXiv 2023. [Documento] [Github]
6 junio 2023
El estado interno de un LLM sabe cuándo miente
Amos Azaria, Tom Mitchell
arXiv 2023. [Artículo]
26 de abril de 2023
TruthfulQA: medir cómo los modelos imitan las falsedades humanas
Stephanie Lin, Jacob Hilton, Owain Evans
ACL 2022. [Documento] [Github] [Blog]
8 de septiembre de 2021
IA veraz: desarrollar y gobernar una IA que no mienta
Owain Evans, Owen Cotton-Barratt, Lukas Finnveden, Adam Bales, Avital Balwit, Peter Wills, Luca Righetti, William Saunders
arXiv 2021. [Artículo] [Blog]
13 de octubre de 2021
Medición de la confiabilidad de modelos de lenguaje grandes a través de la coherencia semántica
Harsh Raj, Domenic Rosati, Subhabrata Majumdar
Taller de seguridad de ML NeurIPS 2022. [Papel]
10 de noviembre de 2022
REFINER: Comentarios razonados sobre representaciones intermedias
Debjit Paul, Méte Ismayilzada, Maxime Peyrard, Beatriz Borges, Antoine Bosselut, Robert West, Boi Faltings
arXiv 2023. [Artículo]
4 de abril de 2023
OpenICL: un marco de código abierto para el aprendizaje en contexto
Zhenyu Wu, YaoXiang Wang, Jiacheng Ye, Jiangtao Feng, Jingjing Xu, Yu Qiao, Zhiyong Wu
arXiv 2023. [Documento] [Github]
6 de marzo de 2023
Comprensión confiable del lenguaje natural con modelos de lenguaje grandes y programación de conjuntos de respuestas
Abhiramon Rajasekharan, Yankai Zeng, Parth Padalkar, Gopal Gupta
arXiv 2023. [Artículo]
7 de febrero de 2023
La autoconsistencia mejora el razonamiento de la cadena de pensamiento en modelos de lenguaje
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou
ICLR 2023. [Artículo]
21 de marzo de 2022
La cadena de pensamiento que provoca el razonamiento en modelos de lenguaje grandes.
Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Ed Chi, Quoc Le, Denny Zhou
arXiv 2022. [Artículo]
28 de enero de 2022
STAR: Razonador autodidacta que inicia el razonamiento con razonamiento.
Eric Zelikman, Yuhuai Wu, Noah D. Goodman
NeurIPS 2022. [Papel][Github]
28 de marzo de 2022
La falta de fiabilidad de las explicaciones en las indicaciones breves para el razonamiento textual
Xi Ye, Greg Durrett
NeurIPS 2022. [Documento] [Github]
6 mayo 2022
Conjuntos de lógica aumentada en modelos lingüísticos
Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Denny Zhou
arXiv 2022. [Artículo]
2 de julio de 2022
ReAct: sinergia entre razonamiento y actuación en modelos lingüísticos
Shunyu Yao, Jeffrey Zhao, Dian Yu, Nan Du, Izhak Shafran, Karthik Narasimhan, Yuan Cao
ICLR 2023. [Artículo] [Github] [Proyecto]
6 de octubre de 2022
Pensándolo bien, ¡no pensemos paso a paso! Sesgo y toxicidad en el razonamiento de disparo cero
Omar Shaikh, Hongxin Zhang, William Held, Michael Bernstein, Diyi Yang
arXiv 2022. [Artículo]
15 dic 2022
Sobre el avance de hacer que los modelos de lenguaje sean mejores razonadores
Yifei Li, Zeqi Lin, Shizhuo Zhang, Qiang Fu, Bei Chen, Jian-Guang Lou, Weizhu Chen
arXiv 2022. [Papel][Github]
6 de junio de 2022
Pregúntame cualquier cosa: una estrategia sencilla para generar modelos de lenguaje
Simran Arora, Avanika Narayan, Mayee F. Chen, Laurel Orr, Neel Guha, Kush Bhatia, Ines Chami, Frederic Sala, Christopher Ré
arXiv 2022. [Papel][Github]
5 de octubre de 2022
MathPrompter: razonamiento matemático utilizando modelos de lenguaje grandes
Shima Imani, Liang Du, Harsh Shrivastava
arXiv 2023. [Artículo]
4 de marzo de 2023
Indicaciones basadas en la complejidad para el razonamiento de varios pasos
Yao Fu, Hao Peng, Ashish Sabharwal, Peter Clark, Tushar Khot
arXiv 2022. [Papel][Github]
3 de octubre de 2022
Medir y reducir la brecha de composicionalidad en los modelos lingüísticos
Ofir Press, Muru Zhang, Sewon Min, Ludwig Schmidt, Noah A. Smith, Mike Lewis
arXiv 2022. [Documento][Github] 7 de octubre de 2022
Intercalando la recuperación con el razonamiento en cadena de pensamiento para preguntas de varios pasos que requieren mucho conocimiento
Harsh Trivedi, Niranjan Balasubramanian, Tushar Khot, Ashish Sabharwal
arXiv 2023. [Papel][Github]
20 dic 2022
Modelos de lenguaje grandes como optimizadores
Chengrun Yang, Xuezhi Wang, Yifeng Lu, Hanxiao Liu, Quoc V. Le, Denny Zhou, Xinyun Chen
arXiv 2023. [Artículo]
7 de septiembre de 2023
InstructZero: optimización eficiente de la instrucción para modelos de lenguaje grandes de caja negra
Lichang Chen, Jiuhai Chen, Tom Goldstein, Heng Huang, Tianyi Zhou
arXiv 2023. [Documento] [Github]
5 de junio de 2023
Promptboosting: clasificación de texto en cuadro negro con diez pases hacia adelante
Bairu Hou, Joe O'Connor, Jacob Andreas, Shiyu Chang, Yang Zhang
ICML 2023. [Documento][Github]
23 de enero de 2023
GrIPS: búsqueda de instrucciones basada en ediciones y sin gradientes para generar modelos de lenguaje grandes
Archiki Prasad, Peter Hase, Xiang Zhou, Mohit Bansal
EACL 2023. [Documento][Github]
14 de marzo de 2022
RLPrompt: optimización de mensajes de texto discretos con aprendizaje por refuerzo
Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric P. Xing, Zhiting Hu
EMNLP 2022. [Documento][Github]
25 mayo 2022
Aprendizaje rápido de caja negra para modelos de lenguaje previamente entrenados
Shizhe Diao, Zhichao Huang, Ruijia Xu, Xuechun Li, Yong Lin, Xiao Zhou, Tong Zhang
TMLR 2023. [Papel][Github]
22 de enero de 2022
Ajuste de caja negra para el modelo de lenguaje como servicio
Tianxiang Sun, Yunfan Shao, Hong Qian, Xuanjing Huang, Xipeng Qiu
ICML 2022. [Documento][Github]
10 de enero de 2022
BBTv2: hacia un futuro sin gradientes con grandes modelos de lenguaje
Tianxiang Sun, Zhengfu He, Hong Qian, Yunhua Zhou, Xuanjing Huang, Xipeng Qiu EMNLP 2022. [Artículo] [Github]
7 de diciembre de 2022
Cadena automática de indicaciones de pensamiento en modelos de lenguaje grandes
Zhuosheng Zhang, Aston Zhang, Mu Li, Alex Smola
ICLR 2023. [Documento][Github]
7 de octubre de 2022
Aumento y selección automáticos de indicaciones con cadena de pensamiento a partir de datos etiquetados
KaShun Shum, Shizhe Diao, Tong Zhang
arXiv 2023. [Papel][Github]
24 de febrero de 2023
Los modelos de lenguaje grandes son ingenieros rápidos a nivel humano
Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han, Keiran Paster, Silviu Pitis, Harris Chan, Jimmy Ba
ICLR 2023. [Documento] [Github]
3 de noviembre de 2022
Indicaciones fantásticamente ordenadas y dónde encontrarlas: superar la sensibilidad al orden de las indicaciones de pocos disparos
Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp
ACL 2022. [Artículo]
Selección de ejemplos activos para el aprendizaje en contexto
Yiming Zhang, Shi Feng, Chenhao Tan
EMNLP 2022. [Documento][Github]
8 de noviembre de 2022
La anotación selectiva hace que los modelos de lenguaje sean mejores para los estudiantes con pocas oportunidades
Hongjin Su, Jungo Kasai, Chen Henry Wu, Weijia Shi, Tianlu Wang, Jiayi Xin, Rui Zhang, Mari Ostendorf, Luke Zettlemoyer, Noah A. Smith, Tao Yu
ICLR 2023. [Documento][Github]
5 de septiembre de 2022
Aprender a recuperar indicaciones para el aprendizaje en contexto
Ohad Rubin, Jonathan Herzig, Jonathan Berant
NAACL-HLT 2022. [Documento][Github]
16 de diciembre de 2021
LaMini-LM: una manada diversa de modelos destilados a partir de instrucciones a gran escala
Minghao Wu, Abdul Waheed, Chiyu Zhang, Muhammad Abdul-Mageed, Alham Fikri Aji
arXiv 2023. [Papel][Github]
27 de abril de 2023
Autorrefinamiento: refinamiento iterativo con autorretroalimentación
Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe, Uri Alon, Nouha Dziri, Shrimai Prabhumoye, Yiming Yang, Sean Welleck, Bodhisattwa Prasad Majumder, Shashank Gupta, Amir Yazdanbakhsh, Peter Clark
arXiv 2023. [Documento][Github] [Sitio web]
30 de marzo de 2023
¿Es rápido todo lo que necesita? No. Una visión integral y más amplia del aprendizaje mediante instrucción
Renze Lou, Kai Zhang, Wenpeng Yin
arXiv 2023. [Papel][Github]
18 de marzo de 2023
Autoinstrucción: alineación del modelo de lenguaje con instrucciones autogeneradas
Yizhong Wang, Yeganeh Kordi, Swaroop Mishra, Alisa Liu, Noah A. Smith, Daniel Khashabi, Hannaneh Hajishirzi
arXiv 2022. [Documento] [Github]
20 dic 2022
IA constitucional: inocuidad de la retroalimentación de la IA
Yuntao Bai, et al (antrópico)
arXiv 2022. [Artículo]
15 dic 2022
Descubriendo comportamientos de modelos lingüísticos con evaluaciones escritas en modelos
Ethan Pérez et al.
arXiv 2022. [Artículo]
19 dic 2022
Aprendizaje por instrucción en contexto
Seonghyeon Ye, Hyeonbin Hwang, Sohee Yang, Hyeongu Yun, Yireun Kim, Minjoon Seo
arXiv 2023. [Papel][Github]
28 de febrero de 2023
Modelos de lenguaje aumentados en Internet mediante indicaciones breves para responder preguntas en dominio abierto
Angeliki Lazaridou, Elena Gribovskaya, Wojciech Stokowiec, Nikolai Grigorev
arXiv 2023. [Artículo]
10 de marzo de 2023
Programa de estimulación de pensamientos: desenredar la computación del razonamiento para tareas de razonamiento numérico
Wenhu Chen, Xueguang Ma, Xinyi Wang, William W. Cohen
arXiv 2022. [Papel][Github]
22 de noviembre de 2022
PAL: Modelos de lenguaje asistidos por programas
Luyu Gao, Aman Madaan, Shuyan Zhou, Uri Alon, Pengfei Liu, Yiming Yang, Jamie Callan, Graham Neubig
arXiv 2022. [Documento] [Github] [Proyecto]
18 de noviembre de 2022
TALM: Modelos de lenguaje aumentados con herramientas
Aaron Parisi, Yao Zhao, Noah Fiedel
arXiv 2022. [Artículo]
24 mayo 2022
Toolformer: Los modelos de lenguaje pueden aprender a usar la herramienta por sí mismos
Timo Schick, Jane Dwivedi-Yu, Roberto Dessì, Roberta Raileanu, Maria Lomeli, Luke Zettlemoyer, Nicola Cancedda, Thomas Scialom
arXiv 2023. [Artículo]
9 de febrero de 2023
¡Destilando paso a paso! Superar modelos de lenguaje más grandes con menos datos de entrenamiento y tamaños de modelo más pequeños
Cheng-Yu Hsieh, Chun-Liang Li, Chih-Kuan Yeh, Hootan Nakhost, Yasuhisa Fujii, Alexander Ratner, Ranjay Krishna, Chen-Yu Lee, Tomas Pfister
arXiv 2023. [Artículo]
3 de mayo de 2023
FreeLM: modelo de lenguaje sin ajustes
Xiang Li1, Xin Jiang, Xuying Meng, Aixin Sun, Yequan Wang
arXiv 2023. [Artículo]
2 de mayo de 2023
Curación de datos automatizada para un ajuste preciso del modelo de lenguaje sólido
Jiuhai Chen, Jonas Mueller
arXiv 2024. [Artículo]
19 de marzo de 2024
Modelado de idiomas invariantes Maxime Peyrard, Sarvjeet Singh Ghotra, Martin Josifoski, Vidhan Agarwal, Barun Patra, Dean Carignan, Emre Kiciman, Robert West
EMNLP 2022. [Documento] [GitHub]
16 de octubre de 2021
Hacia una generación de diálogo personalizada robusta a través de la regularización de la representación insensible
Liang Chen, Hongru Wang, Yang Deng, Wai-Chung Kwan, Kam-Fai Wong
Hallazgos de ACL 2023. [Documento] [Github]
22 mayo 2023
Explorando cambios de distribución en modelos de idiomas grandes para el análisis de código
Shushan Arakelyan, Rocktim Jyoti Das, Yi Mao, Xiang Ren
ARXIV 2023. [Documento]
16 de marzo de 2023
Detección desactualizada y generación selectiva para modelos de lenguaje condicional
Jie Ren, Jiaming Luo, Yao Zhao, Kundan Krishna, Mohammad Saleh, Balaji Lakshminarayanan, Peter J. Liu
ICLR 2023. [Documento]
30 de septiembre de 2022
Sobre la adaptación del dominio y la generalización de los modelos de lenguaje previos a la aparición: una encuesta
Xu Guo, Han Yu
ARXIV 2022. [Documento]
6 de noviembre de 2022
Ataques adversos contra LLM
Lilian Weng [Blog]
25 de octubre de 2023
PREDBENC: para evaluar la robustez de los modelos de idiomas grandes en las indicaciones adversas
Kaijie Zhu, Jindong Wang, Jiaheng Zhou, Zichen Wang, Hao Chen, Yidong Wang, Linyi Yang, Wei Ye, Neil Zhenqiang Gong, Yue Zhang, Xing Xie
ARXIV 2023. [Documento] [GitHub]
7 de junio de 20223
Sobre la robustez de ChatGPT: una perspectiva adversaria y desactualizada
Jindong Wang, Xixu Hu, Wenxin Hou, Hao Chen, Runkai Zheng, Yidong Wang, Linyi Yang, Haojun Huang, Wei Ye, Xiubo Geng, Binxin Jiao, Yue Zhang, Xing XIE
ARXIV 2023. [Documento] [GitHub]
22 de febrero de 2023
Prueba de confiabilidad para sistemas de procesamiento de lenguaje natural
Samson Tan, Shafiq Joty, Kathy Baxter, Araz Taeihagh, Gregory A. Bennett, Min-yen Kan
ACL-IJCNLP 2021. [Documento]
06 de mayo de 2021
Respuesta de preguntas atribuidas: evaluación y modelado para modelos de idiomas grandes atribuidos
Bernd Bohnet, Vinh Q. Tran, Pat Verga, Roee Aharoni, Daniel Andor, Livio Baldini Soares, Massimiliano Ciaramita, Jacob Eisenstein, Kuzman Ganchev, Jonathan Herzig, Kai Hui, Tom Kwiatkowski, Ji MA, Jianmo Ni, Lierni Sareini SareAini. Schuster, William W. Cohen, Michael Collins, Dipanjan Das, Donald Metzler, Slav Petrov, Kellie Webster
ARXIV 2022. [Documento]
15 de diciembre de 2022
¿Pueden los modelos de idiomas grandes inferir la causalidad de la correlación?
Zhijing Jin, Jiarui Liu, Zhiheng Lyu, Spencer Poff, Mrinmaya Sachan, Rada Mihalcea, Mona Diab, Bernhard Schölkopf
ARXIV 2023. [Documento] [GitHub]
9 de junio de 2023
Inferencia de selección: explotar modelos de lenguaje grande para un razonamiento lógico interpretable
Antonia Creswell, Murray Shanahan, Irina Higgins
ICLR 2023. [Documento]
19 de mayo de 2022
Investigar la comprensión causal en LLMS
Marius Hobbhahn, Tom Lieberum, David Seiler
Neurips 2022 Taller. [Paper] [Blog]
3 de octubre de 2022