![](https://images.downcodes.com/uploads/20250114/img_67861855d3ed430.png)
Agent-autonome-Awesome-Papers
Il s'agit d'une collection d'articles récents axés sur les agents autonomes. Voici comment Wikipédia définit l'agent :
En intelligence artificielle, un agent intelligent est un agent agissant de manière intelligente ; Il perçoit son environnement, agit de manière autonome afin d'atteindre ses objectifs et peut améliorer ses performances en apprenant ou en acquérant des connaissances. Un agent intelligent peut être simple ou complexe : un thermostat ou un autre système de contrôle est considéré comme un exemple d'agent intelligent, tout comme un être humain, tout comme tout système répondant à la définition, comme une entreprise, un État ou un biome.
Ainsi, la clé d’un agent est qu’il puisse atteindre ses objectifs , acquérir des connaissances et s’améliorer continuellement . Les agents traditionnels de la recherche RL ne seront pas pris en compte dans cette collection. Bien que les agents basés sur le LLM aient attiré l'attention des gens dans des recherches récentes, les agents basés sur le RL occupent également une position particulière. Plus précisément, ce référentiel s'intéresse à deux types d'agents : l'agent basé sur RL et l'agent basé sur LLM.
Notez que cette liste papier est en maintenance active . Libre d'ouvrir un numéro si vous trouvez des articles manqués qui correspondent au sujet.
Mettre à jour l'historique
- 31/01/2024 : Ajout d'une liste spéciale pour les enquêtes sur les agents autonomes.
- 2023/12/08 : Ajouter les articles acceptés par ICML'23 et ICLR'23
- 08/11/2023 : Ajouter les articles acceptés par NeurIPS'23. Ajouter des liens connexes (page du projet ou github) vers ces articles acceptés ?
- 2023/10/25 : Classer tous les articles en fonction de leurs sujets de recherche. Vérifier la ToC pour la norme de classification ?
- 2023/10/18 : Publication de la première version de la collection, y compris les articles soumis à l'ICLR 2024
Table des matières
- Enquêtes
- Agent basé sur RL
- Instruction suivante
- Agent de build basé sur le modèle World
- La langue comme connaissance
- Le LLM comme outil
- Généralisation à travers les tâches
- Apprentissage continu
- Combiner RL et LLM
- Politique basée sur les transformateurs
- Trajectoire vers le langage
- Prédication de trajectoire
- Autres
- Agent basé sur LLM
- Multimodal
- Former le LLM pour la généralisation et l'adaptation
- Conception spécifique à une tâche
- Multi-agents (par exemple, société, coopération)
- Analyse expérimentale
- Benchmark et ensemble de données
- Applications
- Conception d'algorithmes
- Combiné avec RL
- Autres
Enquêtes
- Une enquête sur les agents autonomes basés sur un grand modèle de langage
- L'essor et le potentiel des agents basés sur de grands modèles de langage : une enquête
Agent basé sur RL
Instruction suivante
- [NeurIPS'23] Apprentissage par renforcement conditionné par le langage naturel avec développement et traduction du langage de tâches à l'envers
- [NeurIPS'23] Guidez votre agent avec des récompenses multimodales adaptatives [projet]
- Instruction de composition suivie avec des modèles de langage et un apprentissage par renforcement
- RT-1 : Transformateur robotique pour un contrôle réel à grande échelle [blog]
- RT-2 : Les modèles Vision-Langage-Action transfèrent les connaissances du Web vers le contrôle robotique [blog]
- Open X-Embodiment : ensembles de données d'apprentissage robotique et modèles RT-X [blog]
- [NeurIPS'23] Guidez votre agent avec des récompenses multimodales adaptatives [projet]
- LEO : un agent généraliste incarné dans un monde 3D [projet]
Agent de build basé sur le modèle World
- [ICLR'23 Oral] Les transformateurs sont des modèles mondiaux efficaces en matière d'échantillonnage [code]
- Apprendre à modéliser le monde avec le langage
- MAMBA : une approche de modèle mondial efficace pour l'apprentissage par méta-renforcement
La langue comme connaissance
- Apprendre avec l'inférence linguistique et conseils pour l'apprentissage par renforcement continu
- Informer les agents d'apprentissage par renforcement en ancré le langage naturel dans les processus décisionnels de Markov
- Modulation de récompense linguistique pour l'apprentissage par renforcement pré-formation
Le LLM comme outil
- [NeurIPS'23] Adaptation efficace des politiques avec un ensemble d'invites contrastées pour les agents incorporés
- [ICLR'23] Conception de récompenses avec des modèles de langage [code]
- [ICML'23] RLang : un langage déclaratif pour décrire des connaissances partielles du monde aux agents d'apprentissage par renforcement [Poster]
- [ICML'23] Les agents incarnés rêvent-ils de moutons pixélisés : prise de décision incarnée à l'aide de la modélisation du monde guidée par le langage [Projet] [Code]
- [ICML'23] Ancrer de grands modèles de langage dans des environnements interactifs avec l'apprentissage par renforcement en ligne
- Tirer parti de grands modèles de langage pour une coordination optimisée dans l'apprentissage par renforcement textuel multi-agents
- Text2Reward : génération de récompenses denses avec des modèles linguistiques pour l'apprentissage par renforcement
- Langage pour récompenser la synthèse des compétences robotiques
- Eureka : conception de récompenses au niveau humain via le codage de grands modèles de langage
- STARLING : Formation auto-supervisée d'un agent d'apprentissage par renforcement basé sur du texte avec de grands modèles de langage
Généralisation à travers les tâches
- Un agent généraliste
- AMAGO : apprentissage par renforcement évolutif en contexte pour les agents adaptatifs
Apprentissage continu
- ADAPTER-RL : Adaptation de n'importe quel agent utilisant l'apprentissage par renforcement
- Apprentissage continu en ligne pour une instruction interactive suivant les agents
- [NeurIPS'23] Une définition de l'apprentissage par renforcement continu
Combiner RL et LLM
- [NeurIPS'23] Les grands modèles de langage sont des agents d'apprentissage par renforcement semi-paramétrique
- RoboGPT : Un agent intelligent de prise de décisions incarnées à long terme pour les tâches d'instruction quotidiennes
- Les agents linguistiques peuvent-ils s’approcher des performances de RL ? Une étude empirique sur OpenAI Gym
- RLAdapter : relier les grands modèles de langage à l'apprentissage par renforcement dans les mondes ouverts
Politique basée sur les transformateurs
- [NeurIPS'23] Curriculum inter-épisodique pour les agents transformateurs. [projet]
Trajectoire vers le langage
- [NeurIPS'23] State2Explanation : explications basées sur des concepts au profit de l'apprentissage des agents et de la compréhension des utilisateurs
- [NeurIPS'23] HELM sémantique : une mémoire lisible par l'homme pour l'apprentissage par renforcement
- [ICML'23] Distiller des modèles de langage de vision à l'échelle Internet en agents incorporés
- Comprendre votre agent : exploiter de grands modèles de langage pour l'explication des comportements
Prédication de trajectoire
- Prédiction de trajectoire multi-agents avec transformateur de diffusion évolutif
Autres
- Améliorer l'expérience humaine dans la collaboration homme-agent : une approche de modélisation centrée sur l'humain et basée sur un gain humain positif
- Un agent d'apprentissage par renforcement profond gagnant du concours dans microRTS
- Aligner les agents comme les grands modèles de langage
Agent basé sur LLM
Multimodal
- [ICML'23] PaLM-E : un modèle de langage multimodal incorporé
- Steve-Eye : doter les agents incarnés basés sur LLM d'une perception visuelle dans les mondes ouverts
- Navigation Web multimodale avec des modèles de base optimisés pour les instructions
- Vous ne regardez que les écrans : agents multimodaux en chaîne d'action
- Apprentissage de la programmation vision-langage incarnée à partir de l'instruction, de l'exploration et de la rétroaction environnementale
- Un agent généraliste incarné dans un monde 3D
- JARVIS-1 : agents multitâches en monde ouvert avec modèles de langage multimodal à mémoire augmentée
Former le LLM pour la généralisation et l'adaptation
- FireAct : vers un réglage fin de l'agent linguistique
- Adapter les agents LLM grâce à la communication
- AgentTuning : activation des capacités d'agent généralisées pour les LLM
- Retroformer : agents rétrospectifs en grand langage avec optimisation du gradient de politique
Conception spécifique à une tâche
- [NeurIPS'23] Décrire, expliquer, planifier et sélectionner : la planification interactive avec les LLM permet aux agents multitâches du monde ouvert
- [NeurIPS'23] SwiftSage : un agent génératif avec une réflexion rapide et lente pour des tâches interactives complexes [Github]
- Repenser le paradoxe de l'inspection de l'acheteur sur les marchés de l'information avec des agents linguistiques
- Une approche d'agent linguistique pour la preuve formelle de théorèmes
- L'agent demande aux grands modèles de langage d'être des raisonneurs généraux Zero-Shot
- Ghost in the Minecraft : agents hiérarchiques pour Minecraft via de grands modèles de langage avec des connaissances et une mémoire basées sur du texte
- PaperQA : agent générateur de récupération augmentée pour la recherche scientifique
- Agents linguistiques pour détecter les stéréotypes implicites dans les modèles texte-image à grande échelle
- Agent suspect : jouer à des jeux d'information imparfaits avec Theory of Mind Aware GPT-4
Multi-agents (par exemple, société, coopération)
- CoMM : incitation collaborative multi-agents et multi-raisonnements pour la résolution de problèmes complexes
- Construire des agents incarnés coopératifs de manière modulaire avec de grands modèles de langage
- OKR-Agent : un système d'agent axé sur les objets et les résultats clés avec auto-collaboration et auto-évaluation hiérarchiques
- MetaGPT : métaprogrammation pour un cadre de collaboration multi-agents
- AutoAgents : un cadre pour la génération automatique d'agents
- Réseau dynamique LLM-agent : un cadre de collaboration LLM-agent avec optimisation de l'équipe d'agents
- AgentVerse : faciliter la collaboration multi-agents et explorer les comportements émergents
- Explorer les mécanismes de collaboration pour les agents LLM : une vision de la psychologie sociale
- REX : Exploration et eXploitation rapides pour les agents IA
- Émergence de normes sociales dans les sociétés d’agents basées sur de grands modèles linguistiques
Analyse expérimentale
- Identifier les risques des agents LM avec un bac à sable émulé LM
- Évaluation des capacités de coordination multi-agents dans de grands modèles de langage
- Grands modèles linguistiques en tant qu'agents de jeu
- Analyse comparative de grands modèles de langage en tant qu'agents de recherche en IA
- Modélisation environnementale adaptative pour les agents linguistiques orientés tâches
- CLIN : un agent linguistique à apprentissage continu pour une adaptation et une généralisation rapides des tâches
Benchmark et ensemble de données
- [ACL'24] AppWorld : un monde contrôlable d'applications et de personnes pour l'analyse comparative des agents de codage interactifs [site Web] [blog]
- [ICLR'23] Ambiguïté des tâches chez les humains et les modèles linguistiques [code]
- SmartPlay : une référence pour les LLM en tant qu'agents intelligents
- AgentBench : évaluer les LLM en tant qu'agents
- Mettez votre argent là où vous voulez : évaluation de la planification stratégique et de l'exécution des agents LLM dans une arène d'enchères
- SOTOPIA : Évaluation interactive de l'intelligence sociale chez les agents linguistiques
- SocioDojo : créer des agents analytiques à vie avec des textes et des séries chronologiques du monde réel
- WebArena : un environnement Web réaliste pour créer des agents autonomes
- LLM-Deliberation : évaluation des LLM avec un jeu interactif de négociation multi-agents
- Évaluation de grands modèles de langage lors de l'évaluation du suivi de l'instruction
- CivRealm : une odyssée d'apprentissage et de raisonnement pour les agents décisionnels
Applications
- Agents Lyfe : agents générateurs pour des interactions sociales en temps réel à faible coût
- AutoGen : activer les applications LLM de nouvelle génération via une conversation multi-agents
Conception d'algorithmes
- [ICLR'23 Oral] ReAct : Synergiser le raisonnement et l'action dans les modèles de langage [code]
- [NeurIPS'23] AdaPlanner : Planification adaptative à partir de commentaires avec des modèles de langage [github]
- Prospecteur : améliorer les agents LLM grâce à l'auto-question et au classement de trajectoire
- Spécifier formellement le comportement de haut niveau des agents basés sur LLM
- Raisonnement cumulatif avec de grands modèles de langage
Combiné avec RL
- [NeurIPS'23] Réflexion : agents langagiers avec apprentissage par renforcement verbal [code]
- Enseigner aux LLM pour s'enseigner eux-mêmes de meilleures instructions via l'apprentissage par renforcement
- Agents linguistiques avec apprentissage par renforcement pour un jeu stratégique dans le jeu du loup-garou
Autres
- [NeurIPS'24] L'apprentissage des graphes peut-il améliorer la planification dans les agents basés sur LLM ? [code] [blog chinois] [blog anglais]
- AgentSquare : Recherche automatique d'agents LLM dans l'espace de conception modulaire[Page du projet][Github]
- LUMOS : vers des agents linguistiques unifiés, modulaires et open source
- Lemur : harmoniser le langage naturel et le code pour les agents linguistiques
- La recherche dans l'arborescence des agents linguistiques unifie le raisonnement, l'action et la planification dans les modèles linguistiques