Tolle Entscheidungsfindung / Verstärkungslernen
Dies ist eine gedruckte Liste aktueller Forschungsmaterialien im Zusammenhang mit Entscheidungsfindung und Bewegungsplanung. Ich wünschte, es könnte sowohl für die Wissenschaft als auch für die Industrie hilfreich sein. (wird noch aktualisiert)
Betreuer : Jiachen Li (University of California, Berkeley)
E-Mail : [email protected]
Bitte zögern Sie nicht, eine Anfrage zu stellen, um neue Ressourcen hinzuzufügen, oder senden Sie uns E-Mails für Fragen, Diskussionen und Zusammenarbeit.
Hinweis : Hier finden Sie auch eine Sammlung von Forschungsmaterialien zur interaktionsbewussten Flugbahn-(Verhaltens-)Vorhersage.
RL & IRL & GAIL
- Maximum Entropy Deep Inverse Reinforcement Learning, 2015, [Papier]
- Geführtes Kostenlernen: Deep Inverse Optimal Control via Policy Optimization, ICML 2016, [Papier]
- Generative Adversarial Imitation Learning, NIPS 2016, [Papier]
- Ein Zusammenhang zwischen generativen kontradiktorischen Netzwerken, inversem Reinforcement Learning und energiebasierten Modellen, NIPS 2016, [Papier]
- InfoGAIL: Interpretable Imitation Learning from Visual Demonstrations, NIPS 2017, [Papier] [Code]
- Self-Imitation Learning, ICML 2018, [Papier] [Code]
- Dateneffizientes hierarchisches Verstärkungslernen, NIPS 2018, [Papier]
- Lernen robuster Belohnungen mit Adversarial Inverse Reinforcement Learning, ICLR 2018, [Papier]
- Multi-Agent Generative Adversarial Imitation Learning, ICLR 2018, [Papier]
- Multi-Agent Adversarial Inverse Reinforcement Learning, ICML 2019, [Papier]
Autonomes Fahren
- Eine Übersicht über Deep-Learning-Anwendungen zur autonomen Fahrzeugsteuerung, IEEE Transaction on ITS 2019, [Papier]
- Imitating Driver Behavior with Generative Adversarial Networks, IV 2017, [Papier] [Code]
- Multi-Agent-Imitationslernen für Fahrsimulation, IROS 2018, [Papier] [Code]
- Simulation neuer Eigenschaften des menschlichen Fahrverhaltens mithilfe von Multi-Agent Reward Augmented Imitation Learning, ICRA 2019, [Papier] [Code]
- Learning from Demonstration in the Wild, ICRA 2018, [Papier]
- Multi-Agent-vernetztes autonomes Fahren mit Deep Reinforcement Learning, NeurIPS 2019, [Papier] [Code]
- Modellfreies Deep Reinforcement Learning für autonomes Fahren in der Stadt, ITSC 2019, [Papier]
- End-to-End-Fahren durch bedingtes Imitationslernen, ICRA 2018, [Papier]
- CIRL: Controllable Imitative Reinforcement Learning for Vision-based Self-driving, ECCV 2018, [Papier] [Code]
- Ein auf Verstärkungslernen basierender Ansatz für automatisierte Spurwechselmanöver, IV 2018, [Papier]
- Adversarial Inverse Reinforcement Learning für die Entscheidungsfindung beim autonomen Fahren, ICRA 2020, [Papier]
- Tiefes hierarchisches Verstärkungslernen für autonomes Fahren mit unterschiedlichen Verhaltensweisen, IV 2018, [Papier]
- Eine hierarchische Architektur für sequentielle Entscheidungsfindung beim autonomen Fahren mithilfe von Deep Reinforcement Learning, ICML 2019, [Papier]
- End-to-End-Interpretable Neural Motion Planner, CVPR 2019, [Papier]
- Gemeinsam erlernbares Verhalten und Trajektorienplanung für selbstfahrende Fahrzeuge, IROS 2019, [Papier]
- Dynamischer Input für Deep Reinforcement Learning beim autonomen Fahren, IROS 2019, [Papier]
- Lernen, in Städten ohne Karte zu navigieren, NIPS 2018, [Papier]
- Skalierbare End-to-End-Tests autonomer Fahrzeuge mittels Simulation seltener Ereignisse, NIPS 2018, [Papier]
- Auf dem Weg zum Lernen von Multi-Agent-Verhandlungen durch Selbstspiel, ICCV 2019, [Papier]
Simulator & Datensatz
- CARLA: Ein offener städtischer Fahrsimulator, [Papier]
- TORCS: Der offene Rennwagensimulator, [Papier]
- Comma.ai: Lernen eines Fahrsimulators, [Papier]
- NGSIM: US Highway 101-Datensatz, [Dokumente]