Agente-autónomo-de-papeles-impresionantes
Esta es una colección de artículos recientes centrados en el agente autónomo. Así es como Wikipedia define Agente:
En inteligencia artificial, un agente inteligente es un agente que actúa de manera inteligente; Percibe su entorno, toma acciones de forma autónoma para lograr objetivos y puede mejorar su desempeño aprendiendo o adquiriendo conocimientos. Un agente inteligente puede ser simple o complejo: un termostato o otro sistema de control se considera un ejemplo de agente inteligente, al igual que un ser humano, como lo es cualquier sistema que cumpla con la definición, como una empresa, un estado o un bioma.
Así, la clave de un agente es que pueda alcanzar objetivos , adquirir conocimientos y mejorar continuamente . En esta colección no se considerarán los agentes tradicionales en la investigación de RL. Aunque los agentes basados en LLM han llamado la atención de la gente en investigaciones recientes, los agentes basados en RL también ocupan su posición especial. Específicamente, este repositorio está interesado en dos tipos de agentes: agente basado en RL y agente basado en LLM.
Tenga en cuenta que esta lista en papel se encuentra bajo mantenimiento activo . Gratis Gratis para abrir un número si encontró algún trabajo perdido que se ajuste al tema.
Historial de actualizaciones
- 31/01/2024: Agregar una lista especial para encuestas sobre agente autónomo.
- 08/12/2023: Agregar artículos aceptados por ICML'23 e ICLR'23
- 08/11/2023: Agregar trabajos aceptados por NeurIPS'23. ¿Agregar enlaces relacionados (página del proyecto o github) a estos artículos aceptados?
- 25/10/2023: Clasifique todos los artículos según sus temas de investigación. ¿Consulte el ToC para conocer el estándar de clasificación?
- 18/10/2023: Publicación de la primera versión de la colección, incluidos los artículos presentados a ICLR 2024
Tabla de contenido
- Encuestas
- Agente basado en RL
- Instrucciones siguientes
- Construir agente basado en el modelo mundial
- El lenguaje como conocimiento.
- LLM como herramienta
- Generalización entre tareas
- Aprendizaje continuo
- Combinar RL y LLM
- Política basada en transformadores
- Trayectoria hacia el idioma
- Predicción de trayectoria
- Otros
- Agente basado en LLM
- multimodal
- Capacitar LLM para generalización y adaptación.
- Diseño de tareas específicas
- Multiagente (p. ej., sociedad, cooperación)
- Análisis experimental
- Punto de referencia y conjunto de datos
- Aplicaciones
- Diseño de algoritmos
- Combinado con RL
- Otros
Encuestas
- Una encuesta sobre agentes autónomos basados en modelos de lenguaje grande
- El auge y el potencial de los agentes basados en modelos de lenguaje grandes: una encuesta
Agente basado en RL
Instrucciones siguientes
- [NeurIPS'23] Aprendizaje por refuerzo condicionado por el lenguaje natural con tareas de adentro hacia afuera Desarrollo del lenguaje y traducción
- [NeurIPS'23] Guíe a su agente con recompensas multimodales adaptables [proyecto]
- Seguimiento de la instrucción de composición con modelos del lenguaje y aprendizaje por refuerzo
- RT-1: Transformador robótico para control del mundo real a escala [blog]
- RT-2: Los modelos de visión, lenguaje y acción transfieren el conocimiento web al control robótico [blog]
- Open X-Embodiment: conjuntos de datos de aprendizaje robótico y modelos RT-X [blog]
- [NeurIPS'23] Guíe a su agente con recompensas multimodales adaptables [proyecto]
- LEO: un agente generalista encarnado en un mundo 3D [proyecto]
Construir agente basado en el modelo mundial
- [ICLR'23 Oral] Los transformadores son modelos mundiales con uso eficiente de muestras [código]
- Aprender a modelar el mundo con el lenguaje
- MAMBA: un enfoque de modelo mundial eficaz para el aprendizaje por meta-refuerzo
El lenguaje como conocimiento.
- Aprendizaje con inferencia del lenguaje y consejos para el aprendizaje por refuerzo continuo
- Informar a los agentes de aprendizaje por refuerzo conectando el lenguaje natural a los procesos de decisión de Markov
- Modulación de recompensa del lenguaje para el aprendizaje por refuerzo previo al entrenamiento
LLM como herramienta
- [NeurIPS'23] Adaptación eficiente de políticas con un conjunto rápido contrastivo para agentes incorporados
- [ICLR'23] Diseño de recompensas con modelos de lenguaje [código]
- [ICML'23] RLang: un lenguaje declarativo para describir el conocimiento mundial parcial a los agentes de aprendizaje por refuerzo [Póster]
- [ICML'23] ¿Sueñan los agentes encarnados con ovejas pixeladas? Toma de decisiones encarnadas utilizando el modelado mundial guiado por el lenguaje [Proyecto][Código]
- [ICML'23] Fundamentación de grandes modelos de lenguaje en entornos interactivos con aprendizaje por refuerzo en línea
- Aprovechamiento de modelos de lenguaje grandes para una coordinación optimizada en el aprendizaje por refuerzo textual de múltiples agentes
- Text2Reward: generación de recompensas densas con modelos lingüísticos para el aprendizaje por refuerzo
- Lenguaje para recompensas por la síntesis de habilidades robóticas
- Eureka: diseño de recompensas a nivel humano mediante la codificación de modelos de lenguaje grandes
- STARLING: Capacitación autosupervisada de un agente de aprendizaje por refuerzo basado en texto con modelos de lenguaje grandes
Generalización entre tareas
- Un agente generalista
- AMAGO: Aprendizaje por refuerzo escalable en contexto para agentes adaptativos
Aprendizaje continuo
- ADAPTER-RL: Adaptación de cualquier agente mediante aprendizaje por refuerzo
- Aprendizaje continuo en línea para instrucción interactiva siguiendo agentes
- [NeurIPS'23] Una definición de aprendizaje por refuerzo continuo
Combinar RL y LLM
- [NeurIPS'23] Los modelos de lenguaje grandes son agentes de aprendizaje por refuerzo semiparamétricos
- RoboGPT: un agente inteligente para tomar decisiones incorporadas a largo plazo para las tareas de instrucción diarias
- ¿Pueden los agentes lingüísticos acercarse al desempeño de la RL? Un estudio empírico sobre OpenAI Gym
- RLAdapter: Uniendo grandes modelos de lenguaje para el aprendizaje por refuerzo en mundos abiertos
Política basada en transformadores
- [NeurIPS'23] Plan de estudios interepisódico para agentes transformadores. [proyecto]
Trayectoria al idioma
- [NeurIPS'23] State2Explanation: explicaciones basadas en conceptos para beneficiar el aprendizaje de los agentes y la comprensión del usuario
- [NeurIPS'23] HELM semántico: una memoria legible por humanos para el aprendizaje por refuerzo
- [ICML'23] Destilación de modelos de visión y lenguaje a escala de Internet en agentes incorporados
- Comprender a su agente: aprovechar modelos de lenguaje amplios para explicar el comportamiento
Predicción de trayectoria
- Predicción de trayectoria multiagente con transformador de difusión escalable
Otros
- Mejora de la experiencia humana en la colaboración entre humanos y agentes: un enfoque de modelado centrado en las personas basado en ganancias humanas positivas
- Un agente de aprendizaje por refuerzo profundo ganador de la competencia en microRTS
- Alinear agentes como modelos de lenguaje grandes
Agente basado en LLM
multimodal
- [ICML'23] PaLM-E: un modelo de lenguaje multimodal incorporado
- Steve-Eye: Equipar agentes incorporados basados en LLM con percepción visual en mundos abiertos
- Navegación web multimodal con modelos básicos ajustados por instrucciones
- Sólo miras las pantallas: agentes de cadena de acción multimodal
- Aprendizaje de la programación visión-lenguaje incorporada a partir de la instrucción, la exploración y la retroalimentación ambiental
- Un agente generalista encarnado en un mundo 3D
- JARVIS-1: Agentes multitarea de mundo abierto con modelos de lenguaje multimodal con memoria aumentada
Capacitar LLM para generalización y adaptación.
- FireAct: Hacia el ajuste del agente lingüístico
- Adaptación de los agentes LLM a través de la comunicación
- AgentTuning: Habilitación de habilidades de agentes generalizadas para LLM
- Retroformer: Agentes de lenguaje grandes retrospectivos con optimización del gradiente de políticas
Diseño de tareas específicas
- [NeurIPS'23] Describir, explicar, planificar y seleccionar: la planificación interactiva con LLM permite agentes multitarea de mundo abierto
- [NeurIPS'23] SwiftSage: un agente generativo con pensamiento rápido y lento para tareas interactivas complejas [Github]
- Repensar la paradoja de la inspección del comprador en los mercados de información con agentes lingüísticos
- Un enfoque de agente lingüístico para la demostración formal de teoremas
- El agente instruye a modelos de lenguaje grandes para que sean razonadores generales de tiro cero
- Fantasma en Minecraft: agentes jerárquicos para Minecraft a través de grandes modelos de lenguaje con conocimiento y memoria basados en texto
- PaperQA: agente generativo de recuperación aumentada para la investigación científica
- Agentes lingüísticos para detectar estereotipos implícitos en modelos de conversión de texto a imagen a escala
- Agente de sospecha: jugar juegos de información imperfecta con Theory of Mind Aware GPT-4
Multiagente (p. ej., sociedad, cooperación)
- CoMM: Incitación colaborativa de múltiples agentes y múltiples rutas de razonamiento para la resolución de problemas complejos
- Creación modular de agentes incorporados cooperativos con modelos de lenguaje grandes
- OKR-Agent: un sistema de agentes basado en objetos y resultados clave con autocolaboración y autoevaluación jerárquicas
- MetaGPT: metaprogramación para un marco de colaboración multiagente
- AutoAgents: un marco para la generación automática de agentes
- Red dinámica de agentes de LLM: un marco de colaboración de agentes de LLM con optimización del equipo de agentes
- AgentVerse: facilitar la colaboración entre múltiples agentes y explorar comportamientos emergentes
- Exploración de mecanismos de colaboración para agentes de LLM: una visión de la psicología social
- REX: exploración y explotación rápidas para agentes de IA
- Aparición de normas sociales en grandes sociedades de agentes basadas en modelos lingüísticos
Análisis experimental
- Identificación de los riesgos de los agentes de LM con un Sandbox emulado de LM
- Evaluación de las capacidades de coordinación de múltiples agentes en modelos de lenguaje grandes
- Grandes modelos lingüísticos como agentes de juego
- Evaluación comparativa de modelos de lenguaje grandes como agentes de investigación de IA
- Modelado ambiental adaptativo para agentes lingüísticos orientados a tareas
- CLIN: un agente lingüístico de aprendizaje continuo para una rápida adaptación y generalización de tareas
Punto de referencia y conjunto de datos
- [ACL'24] AppWorld: Un mundo controlable de aplicaciones y personas para realizar evaluaciones comparativas de agentes de codificación interactivos [sitio web][blog]
- [ICLR'23] Ambigüedad de tareas en humanos y modelos de lenguaje [código]
- SmartPlay: un punto de referencia para los LLM como agentes inteligentes
- AgentBench: evaluación de los LLM como agentes
- Ponga su dinero donde está su boca: evaluación de la planificación estratégica y la ejecución de agentes de LLM en una sala de subastas
- SOTOPIA: Evaluación interactiva de la inteligencia social en agentes del lenguaje
- SocioDojo: creación de agentes analíticos de por vida con texto y series temporales del mundo real
- WebArena: un entorno web realista para crear agentes autónomos
- LLM-Deliberation: Evaluación de LLM con un juego interactivo de negociación de múltiples agentes
- Evaluación de modelos de lenguaje grandes en Evaluación de instrucción siguiente
- CivRealm: una odisea de aprendizaje y razonamiento para agentes que toman decisiones
Aplicaciones
- Lyfe Agents: agentes generativos para interacciones sociales en tiempo real y de bajo coste
- AutoGen: Habilitación de aplicaciones LLM de próxima generación a través de conversaciones entre múltiples agentes
Diseño de algoritmos
- [ICLR'23 Oral] ReAct: Sinergizar el razonamiento y la actuación en modelos lingüísticos [código]
- [NeurIPS'23] AdaPlanner: planificación adaptativa a partir de comentarios con modelos de lenguaje [github]
- Prospector: mejora de los agentes de LLM con clasificación de trayectoria y autopregunta
- Especificación formal del comportamiento de alto nivel de los agentes con base en LLM
- Razonamiento acumulativo con modelos de lenguaje grandes
Combinado con RL
- [NeurIPS'23] Reflexión: agentes del lenguaje con aprendizaje por refuerzo verbal [código]
- Enseñar a los LLM a aprender mejores instrucciones a través del aprendizaje por refuerzo
- Agentes lingüísticos con aprendizaje por refuerzo para el juego estratégico en el juego del hombre lobo
Otros
- [NeurIPS'24] ¿Puede el aprendizaje gráfico mejorar la planificación en agentes basados en LLM? [código] [blog chino] [blog en inglés]
- AgentSquare: Búsqueda automática de agentes LLM en Modular Design Space[Página del proyecto][Github]
- LUMOS: Hacia agentes lingüísticos unificados, modulares y de código abierto
- Lemur: armonización del lenguaje natural y el código para agentes lingüísticos
- La búsqueda en el árbol de agentes del lenguaje unifica el razonamiento, la acción y la planificación en modelos de lenguaje