Awesome-Papers-Autonomous-Agent
Dies ist eine Sammlung aktueller Veröffentlichungen zum Thema autonome Agenten. So definiert Wikipedia Agent:
In der künstlichen Intelligenz ist ein intelligenter Agent ein Agent, der auf intelligente Weise handelt; Es nimmt seine Umgebung wahr, ergreift autonom Maßnahmen, um Ziele zu erreichen, und kann seine Leistung durch Lernen oder Wissenserwerb verbessern. Ein intelligenter Agent kann einfach oder komplex sein: Ein Thermostat oder ein anderes Steuerungssystem wird als Beispiel für einen intelligenten Agenten angesehen, ebenso wie ein Mensch und jedes System, das der Definition entspricht, beispielsweise ein Unternehmen, ein Staat oder ein Biom.
Der Schlüssel eines Agenten liegt also darin, dass er Ziele erreichen , sich Wissen aneignen und sich kontinuierlich verbessern kann . Die traditionellen Agenten in der RL-Forschung werden in dieser Sammlung nicht berücksichtigt. Obwohl LLM-basierte Agenten in der jüngsten Forschung die Aufmerksamkeit der Menschen auf sich gezogen haben, nehmen auch RL-basierte Agenten eine Sonderstellung ein. Dieses Repo ist insbesondere an zwei Arten von Agenten interessiert: RL-basierter Agent und LLM-basierter Agent.
Beachten Sie, dass diese Papierliste derzeit aktiv gepflegt wird. Es ist kostenlos, eine Ausgabe zu eröffnen, wenn Sie verpasste Beiträge gefunden haben, die zum Thema passen.
Update-Verlauf
- 31.01.2024: Fügen Sie eine spezielle Liste für Umfragen zu autonomen Agenten hinzu.
- 08.12.2023: Von ICML'23 und ICLR'23 akzeptierte Beiträge hinzufügen
- 08.11.2023: Von NeurIPS'23 akzeptierte Beiträge hinzufügen. Verwandte Links (Projektseite oder Github) zu diesen akzeptierten Artikeln hinzufügen?
- 25.10.2023: Klassifizieren Sie alle Arbeiten nach ihren Forschungsthemen. Überprüfen Sie die ToC auf den Klassifizierungsstandard?
- 18.10.2023: Veröffentlichung der ersten Version der Sammlung, einschließlich der beim ICLR 2024 eingereichten Arbeiten
Inhaltsverzeichnis
- Umfragen
- RL-basierter Agent
- Anweisungen folgen
- Build-Agent basierend auf dem Weltmodell
- Sprache als Wissen
- LLM als Werkzeug
- Verallgemeinerung über Aufgaben hinweg
- Kontinuierliches Lernen
- Kombinieren Sie RL und LLM
- Transformer-basierte Richtlinie
- Weg zur Sprache
- Flugbahnvorhersage
- Andere
- LLM-basierter Agent
- Multimodal
- Trainieren Sie LLM für Generalisierung und Anpassung
- Aufgabenspezifisches Entwerfen
- Multi-Agent (z. B. Gesellschaft, Kooperation)
- Experimentelle Analyse
- Benchmark & Datensatz
- Anwendungen
- Algorithmusdesign
- Kombiniert mit RL
- Andere
Umfragen
- Eine Umfrage zu autonomen Agenten, die auf großen Sprachmodellen basieren
- Der Aufstieg und das Potenzial großer sprachmodellbasierter Agenten: Eine Umfrage
RL-basierter Agent
Anweisungen folgen
- [NeurIPS'23] Durch natürliche Sprache bedingtes Verstärkungslernen mit Inside-Out-Aufgabensprachenentwicklung und -übersetzung
- [NeurIPS'23] Leiten Sie Ihren Agenten mit adaptiven multimodalen Belohnungen [Projekt]
- Kompositionsunterricht mit Sprachmodellen und verstärkendem Lernen
- RT-1: Robotik-Transformator für maßstabsgetreue Steuerung in der realen Welt [Blog]
- RT-2: Vision-Language-Action-Modelle übertragen Webwissen auf Robotersteuerung [Blog]
- Open X-Embodiment: Roboterlerndatensätze und RT-X-Modelle [Blog]
- [NeurIPS'23] Leiten Sie Ihren Agenten mit adaptiven multimodalen Belohnungen [Projekt]
- LEO: Ein verkörperter generalistischer Agent in der 3D-Welt [Projekt]
Build-Agent basierend auf dem Weltmodell
- [ICLR'23 Oral] Transformatoren sind probeneffiziente Weltmodelle [Code]
- Lernen, die Welt mit Sprache zu modellieren
- MAMBA: ein effektiver Weltmodellansatz für Meta-Reinforcement-Lernen
Sprache als Wissen
- Lernen mit Sprachinferenz und Tipps für kontinuierliches Verstärkungslernen
- Informieren von Reinforcement-Learning-Agenten durch die Verankerung natürlicher Sprache in Markov-Entscheidungsprozessen
- Sprachbelohnungsmodulation für das Verstärkungslernen vor dem Training
LLM als Werkzeug
- [NeurIPS'23] Effiziente Richtlinienanpassung mit kontrastivem Prompt-Ensemble für verkörperte Agenten
- [ICLR'23] Belohnungsdesign mit Sprachmodellen [Code]
- [ICML'23] RLang: Eine deklarative Sprache zur Beschreibung von Teilweltwissen für Reinforcement-Learning-Agenten [Poster]
- [ICML'23] Träumen verkörperte Agenten von pixeligen Schafen: Verkörperte Entscheidungsfindung mithilfe sprachgesteuerter Weltmodellierung [Projekt][Code]
- [ICML'23] Verankerung großer Sprachmodelle in interaktiven Umgebungen mit Online-Reinforcement-Learning
- Nutzung großer Sprachmodelle für eine optimierte Koordination beim textuellen Lernen zur Verstärkung mehrerer Agenten
- Text2Reward: Dichte Belohnungsgenerierung mit Sprachmodellen für verstärkendes Lernen
- Sprache zu Belohnungen für die Synthese von Roboterfähigkeiten
- Eureka: Belohnungsdesign auf menschlicher Ebene durch Codierung großer Sprachmodelle
- STARLING: Selbstüberwachtes Training eines textbasierten Reinforcement-Learning-Agenten mit großen Sprachmodellen
Verallgemeinerung über Aufgaben hinweg
- Ein Generalist-Agent
- AMAGO: Skalierbares In-Context-Reinforcement-Lernen für adaptive Agenten
Kontinuierliches Lernen
- ADAPTER-RL: Anpassung eines beliebigen Agenten mithilfe von Reinforcement Learning
- Kontinuierliches Online-Lernen für interaktive Anweisungen nach Agenten
- [NeurIPS'23] Eine Definition des kontinuierlichen Verstärkungslernens
Kombinieren Sie RL und LLM
- [NeurIPS'23] Große Sprachmodelle sind semiparametrische Verstärkungslernagenten
- RoboGPT: Ein intelligenter Agent, der verkörperte langfristige Entscheidungen für tägliche Unterrichtsaufgaben trifft
- Können Sprachagenten die Leistung von RL erreichen? Eine empirische Studie zu OpenAI Gym
- RLAdapter: Überbrückung großer Sprachmodelle zum verstärkenden Lernen in offenen Welten
Transformer-basierte Richtlinie
- [NeurIPS'23] Episodenübergreifender Lehrplan für Transformer-Agenten. [Projekt]
Weg zur Sprache
- [NeurIPS'23] State2Explanation: Konzeptbasierte Erklärungen zur Verbesserung des Agentenlernens und des Benutzerverständnisses
- [NeurIPS'23] Semantischer HELM: Ein für Menschen lesbares Gedächtnis für verstärkendes Lernen
- [ICML'23] Destillation von Vision-Language-Modellen im Internet-Maßstab in verkörperte Agenten
- Verstehen Sie Ihren Agenten: Nutzung großer Sprachmodelle zur Verhaltenserklärung
Flugbahnvorhersage
- Multiagenten-Trajektorienvorhersage mit skalierbarem Diffusionstransformator
Andere
- Verbesserung der menschlichen Erfahrung in der Mensch-Agenten-Zusammenarbeit: Ein menschenzentrierter Modellierungsansatz, der auf positivem menschlichen Gewinn basiert
- Ein preisgekrönter Deep-Reinforcement-Learning-Agent in microRTS
- Ausrichten von Agenten wie großen Sprachmodellen
LLM-basierter Agent
Multimodal
- [ICML'23] PaLM-E: Ein verkörpertes multimodales Sprachmodell
- Steve-Eye: LLM-basierte verkörperte Agenten mit visueller Wahrnehmung in offenen Welten ausstatten
- Multimodale Webnavigation mit durch Anweisungen fein abgestimmten Grundlagenmodellen
- Sie schauen nur auf Bildschirme: Multimodale Wirkungskettenagenten
- Lernen der verkörperten Vision-Language-Programmierung durch Unterricht, Erkundung und Feedback aus der Umgebung
- Ein verkörperter generalistischer Agent in der 3D-Welt
- JARVIS-1: Open-World-Multitasking-Agenten mit speichererweiterten multimodalen Sprachmodellen
Trainieren Sie LLM für Generalisierung und Anpassung
- FireAct: Auf dem Weg zur Feinabstimmung des Sprachagenten
- Anpassung von LLM-Agenten durch Kommunikation
- AgentTuning: Ermöglichen allgemeiner Agentenfähigkeiten für LLMs
- Retroformer: Retrospektive Agenten für große Sprachen mit Optimierung des Richtliniengradienten
Aufgabenspezifisches Entwerfen
- [NeurIPS'23] Beschreiben, erklären, planen und auswählen: Interaktive Planung mit LLMs ermöglicht Open-World-Multitasking-Agenten
- [NeurIPS'23] SwiftSage: Ein generativer Agent mit schnellem und langsamem Denken für komplexe interaktive Aufgaben [Github]
- Überdenken des Käuferinspektionsparadoxons in Informationsmärkten mit Sprachagenten
- Ein Sprachagenten-Ansatz zum Beweisen formaler Theoreme
- Der Agent weist große Sprachmodelle an, allgemeine Zero-Shot-Reasonatoren zu sein
- Ghost in the Minecraft: Hierarchische Agenten für Minecraft über große Sprachmodelle mit textbasiertem Wissen und Gedächtnis
- PaperQA: Retrieval-Augmented Generative Agent für die wissenschaftliche Forschung
- Sprachagenten zur maßstabsgetreuen Erkennung impliziter Stereotypen in Text-zu-Bild-Modellen
- Suspicion-Agent: Unvollkommene Informationsspiele mit Theory of Mind Aware GPT-4 spielen
Multi-Agent (z. B. Gesellschaft, Kooperation)
- CoMM: Kollaborative Multi-Agent- und Multi-Reasoning-Path-Eingabeaufforderung zur Lösung komplexer Probleme
- Modularer Aufbau kooperativer verkörperter Agenten mit großen Sprachmodellen
- OKR-Agent: Ein objekt- und ergebnisgesteuertes Agentensystem mit hierarchischer Selbstzusammenarbeit und Selbstbewertung
- MetaGPT: Metaprogrammierung für das Multi-Agent Collaborative Framework
- AutoAgents: Ein Framework für die automatische Agentengenerierung
- Dynamisches LLM-Agenten-Netzwerk: Ein LLM-Agenten-Kollaborations-Framework mit Agenten-Team-Optimierung
- AgentVerse: Erleichterung der Zusammenarbeit mehrerer Agenten und Erforschung neu auftretender Verhaltensweisen
- Erforschung von Kooperationsmechanismen für LLM-Agenten: Eine sozialpsychologische Sicht
- REX: Schnelle Erkundung und Nutzung für KI-Agenten
- Entstehung sozialer Normen in auf großen Sprachmodellen basierenden Agentengesellschaften
Experimentelle Analyse
- Identifizieren der Risiken von LM-Agenten mit einer LM-emulierten Sandbox
- Bewertung der Koordinationsfähigkeiten mehrerer Agenten in großen Sprachmodellen
- Große Sprachmodelle als Gaming-Agenten
- Benchmarking großer Sprachmodelle als KI-Forschungsagenten
- Adaptive Umgebungsmodellierung für aufgabenorientierte Sprachagenten
- CLIN: Ein kontinuierlich lernender Sprachagent zur schnellen Anpassung und Verallgemeinerung von Aufgaben
Benchmark & Datensatz
- [ACL'24] AppWorld: Eine kontrollierbare Welt von Apps und Menschen zum Benchmarking interaktiver Coding-Agenten [Website][Blog]
- [ICLR'23] Aufgabenmehrdeutigkeit bei Menschen und Sprachmodellen [Code]
- SmartPlay: Ein Maßstab für LLMs als intelligente Agenten
- AgentBench: Bewertung von LLMs als Agenten
- Setzen Sie Ihr Geld dort ein, wo Ihr Mund ist: Bewertung der strategischen Planung und Ausführung von LLM-Agenten in einer Auktionsarena
- SOTOPIA: Interaktive Bewertung der sozialen Intelligenz in Sprachagenten
- SocioDojo: Aufbau lebenslanger analytischer Agenten mit realen Text- und Zeitreihen
- WebArena: Eine realistische Webumgebung zum Aufbau autonomer Agenten
- LLM-Deliberation: Bewertung von LLMs mit interaktivem Multi-Agent-Verhandlungsspiel
- Bewertung großer Sprachmodelle bei der Bewertung der Anweisungsbefolgung
- CivRealm: Eine Odyssee des Lernens und Denkens für Entscheidungsträger
Anwendungen
- Lyfe Agents: Generative Agenten für kostengünstige soziale Interaktionen in Echtzeit
- AutoGen: Ermöglichung von LLM-Anwendungen der nächsten Generation über Multi-Agent-Konversation
Algorithmusdesign
- [ICLR'23 Oral] ReAct: Synergie von Denken und Handeln in Sprachmodellen [Code]
- [NeurIPS'23] AdaPlanner: Adaptive Planung aus Feedback mit Sprachmodellen [github]
- Prospector: Verbesserung von LLM-Agenten durch Self-Asking und Trajectory Ranking
- Formales Spezifizieren des High-Level-Verhaltens von LLM-basierten Agenten
- Kumulatives Denken mit großen Sprachmodellen
Kombiniert mit RL
- [NeurIPS'23] Reflexion: Sprachagenten mit verbalem Verstärkungslernen [Code]
- LLMs beibringen, sich durch Reinforcement Learning bessere Anweisungen beizubringen
- Sprachagenten mit Reinforcement Learning für strategisches Spielen im Werwolf-Spiel
Andere
- [NeurIPS'24] Kann Graph Learning die Planung in LLM-basierten Agenten verbessern? [Code] [chinesischer Blog] [englischer Blog]
- AgentSquare: Automatische LLM-Agentensuche im Modular Design Space[Projektseite][Github]
- LUMOS: Auf dem Weg zu Sprachagenten, die einheitlich, modular und Open Source sind
- Lemur: Harmonisierung natürlicher Sprache und Code für Sprachagenten
- Die Sprachagentenbaumsuche vereint Argumentation, Handeln und Planen in Sprachmodellen