Super-Game-ai
Eine kuratierte, aber unvollständige Liste der KI-Ressourcen für das Lernen von Multi-Agent- Lernen.
Wenn Sie zu dieser Liste beitragen möchten, senden Sie bitte eine Pull -Anfrage. Sie können auch [email protected] oder [email protected] kontaktieren.
? Nachrichten: Bitte besuchen Sie unser Open-Sourcing Large Time Series-Modell (LTSM)!
? Haben Sie von datenzentrierter KI gehört? Bitte lesen Sie unsere datenzentrierte KI-Umfrage und fantastische datenzentrierte KI-Ressourcen!
Was ist Game AI?
Game AI konzentriert sich auf die Vorhersage, welche Maßnahmen ergriffen werden sollten, basierend auf den aktuellen Bedingungen. Im Allgemeinen enthalten die meisten Spiele eine Art KI, die normalerweise Charaktere oder Spieler im Spiel sind. Für einige beliebte Spiele wie Starcraft und Dota 2 haben Entwickler Jahre damit verbracht, die KI zu entwerfen und zu verfeinern, um die Erfahrung zu verbessern.
Single-Agent vs. Multi-Agent
Es wurden zahlreiche Studien und Erfolge für Spiele in Einzel-Agent-Umgebungen gemacht, in denen ein einziger Spieler in den Spielen vorhanden ist. Zum Beispiel wird das Deep Q-Learning erfolgreich auf Atari-Spiele angewendet. Weitere Beispiele sind Super Mario, Minecraft und Flappy Bird.
Umgebungen mit mehreren Agenten sind schwieriger, da jeder Spieler über die Bewegungen der anderen Spieler argumentieren muss. Moderne Verstärkungslernentechniken haben die Multi-Agent-Spiel-KI gesteigert. Im Jahr 2015 besiegte Alphago zum ersten Mal einen menschlichen Profi-Go-Spieler auf einem 19 × 19-Board in voller Größe. Im Jahr 2017 lehrte sich Alphazero von Grund auf und lernte, die Spiele von Schach, Shogi und Go zu beherrschen. In den letzten Jahren haben Forscher Anstrengungen unternommen, um Poker-Spiele wie Libratus, Deepstack und Douzero zu pokieren, und die Leistung auf Expertenebene in Texas Hold'em und chinesischem Pokerspiel Dou Dizhu erzielen. Jetzt treten Forscher weiter voran und erreichen KI auf Dota 2 und Starcraft 2 mit tiefem Verstärkungslernen.
Perfekte Informationen und unvollkommene Informationen
Perfekte Informationen bedeuten, dass jeder Spieler Zugriff auf dieselben Informationen des Spiels, z. B. GO, Schach und Gomoku hat. Unvollkommene Informationen beziehen sich auf die Situation, in der Spieler den gesamten Spielzustand nicht beobachten können. Zum Beispiel kann ein Spieler in Kartenspielen die Hände der anderen Spieler nicht beobachten. Imperfect Information Games gelten normalerweise als schwieriger mit mehr Möglichkeiten.
Was ist enthalten?
Dieses Repository sammelt einige großartige Ressourcen für die KI für Spiele für das Lernen von Multi-Agent-Lernen für perfekte und unvollständige Informationsspiele, einschließlich, aber nicht beschränkt auf Open-Source-Projekte, Überprüfungspapiere, Forschungsarbeiten, Konferenzen und Wettbewerbe. Die Ressourcen werden nach Spielen kategorisiert und die Papiere werden nach Jahren sortiert.
Inhaltsverzeichnis
- Open-Source-Projekte
- Einheitliche Toolkits
- Texas Hold'em
- Dou dizhu
- Starcraft
- Gehen
- Gomoku
- Schach
- Chinesisches Schach
- Überprüfung und allgemeine Papiere
- Forschungsarbeiten
- Wettspiel
- Dou dizhu
- Mahjong
- Brücke
- Gehen
- Starcraft
- Konferenzen und Workshops
- Wettbewerbe
- Verwandte Listen
Open-Source-Projekte
Einheitliche Toolkits
- RLCARD: Ein Toolkit für Verstärkungslernen in Kartenspielen [Papier] [Code].
- OpenSpiel: Ein Rahmen für Verstärkungslernen in Spielen [Papier] [Code].
- Unity ML-Agents Toolkit [Papier] [Code].
- Alpha Zero General [Code].
Texas Hold'em -Projekte
- DeepStack-Leduc [Papier] [Code].
- Deepholdem [Code].
- Openai Gym No Limit Texas Hold 'Em Environment für Verstärkungslernen [Code].
- PypokerEngine [Code].
- Deep Mind Pokerbot für PokerStars und Partypoker [Code].
Dou dizhu Projekte
- Perfectdou: Domining Doudizhu mit perfekter Informationsdestillation [Code].
- Douzero: Mastering Doudizhu mit Selbstverstärkungslernen [Code].
- Doudizhu AI Verwenden von Verstärkungslernen [Code].
- Dou di zhu mit kombinatorischem Q-Learning [Papier] [Code].
- Doudizhu [Code].
- 斗地主 ai 设计与实现 [Code].
Starcraft -Projekte
- StarCraft II -Lernumgebung [Papier] [Code].
- Fitnessstarcraft [Code].
- Beispiele für Startcraft II -Verstärkung [Code].
- Ein Leitfaden für DeepMinds StarCraft AI -Umgebung [Code].
- Eine Neuauflagen von Alphastar basierend auf Di-Engine mit geschulten Modellen [Code].
GO -Projekte
- ELF: Eine Plattform für Spieleforschung mit Alphagozero/Alphazero -Neuauflagen [Code] [Papier].
Gomoku -Projekte
- Alphazero-Gomoku [Code].
- Gobang [Code].
Schachprojekte
- Schach-Alpha-Zero [Code].
- Deep Pink [Code].
- Einfache Schach AI [Code].
Chinesische Schachprojekte
- Cczero (中国象棋 Zero) [Code].
Mahjong -Projekte
- Pymahjong (japanische Riichi Mahjong) [Code].
- Sterblicher [Code].
Überprüfung und allgemeine Papiere
- Tiefes Verstärkungslernen aus dem Selbsteintritt in Spielen imperfect-Information, ARXIV 2016 [Papier].
- Multi-Agent-Verstärkungslernen: Ein Überblick, 2010 [Papier].
- Ein Überblick über kooperative und wettbewerbsfähige Multiagent -Lernen, Lamas 2005 [Papier].
- Multi-Agent-Verstärkungslernen: Eine kritische Umfrage, 2003 [Papier].
Forschungsarbeiten
Wettspiel
Wettspiele sind eine der beliebtesten Form von Pokerspielen. Die Liste enthält Goofspiel, Kuhn Poker, Leduc Poker und Texas Hold'em.
- Neural Replicator Dynamics, Arxiv 2019 [Papier].
- Berechnung der ungefähren Gleichgewichte in sequentiellen widersprüchlichen Spielen durch Ausnutzbarkeitsabnahme, IJCAI 2019 [Papier].
- Lösen von Spielen imperfect-Information durch reduzierte Bedauernminimierung, AAAI 2019 [Papier].
- Deep kontrafaktische Bedauernminimierung, ICML, 2019 [Papier].
- Actor-kritische Politikoptimierung in teilweise beobachtbaren Multiagentenumgebungen, Neurips 2018 [Papier].
- Safe und verschachtelte Subgame-Lösung für Spiele für unvollkommene Information, Neurips, 2018 [Papier].
- DeepStack: Künstliche Intelligenz auf Expertenebene in Heads-up-No-Limit-Poker, Wissenschaft 2017 [Papier].
- Ein einheitlicher spieltheoretischer Ansatz zum Lernen mit mehreren Verstärkern, Neurips 2017 [Papier].
- Poker-CNN: Eine Musterlernstrategie für Zeichnen und Wetten in Pokerspielen mithilfe von Faltungsnetzen [Papier].
- Tiefes Verstärkungslernen aus dem Selbsteintritt in Spielen imperfect-Information, ARXIV 2016 [Papier].
- Fiktives Selbstspiel in umfangreichen Spielen, ICML 2015 [Papier].
- Lösen von Heads-up-Limit Texas Hold'em, IJCAI 2015 [Papier].
- Bedauernde Minimierung in Spielen mit unvollständigen Informationen, Neurips 2007 [Papier].
Dou dizhu
- Perfectdou: Domining Doudizhu mit perfekter Informationsdestillation, Neurips 2022 [Papier] [Code].
- Douzero: Mastering Doudizhu mit Selbstverstärkungslernen, ICML 2021 [Papier] [Code].
- Deltadou: Doudizhu AI auf Expertenebene durch Selbstvertreter, IJCAI 2019 [Papier].
- Kombinations-Q-Learning für Dou di Zhu, Arxiv 2019 [Papier] [Code].
- Bestimmung und Information Set Monte Carlo Tree Suchen nach dem Kartenspiel Dou di Zhu, CIG 2011 [Papier].
Mahjong
- Variations -Orakel -Leitfaden für Verstärkungslernen, ICLR 2022 [Papier]
- Suphx: Mahjong mit tiefem Verstärkungslernen, Arxiv 2020 [Papier].
- Methode zur Konstruktion künstlicher Intelligenzspieler mit Abstraktion zu Markov -Entscheidungsprozessen im Mehrspieler -Spiel von Mahjong, Arxiv 2019 [Papier].
- Aufbau eines Computermahjong -Players auf der Basis von Monte Carlo -Simulation und Gegnernmodellen, IEEE CIG 2017 [Papier].
Brücke
- Steigern Sie eine künstliche Intelligenz der Brücke, ICTAI 2017 [Papier].
Gehen
- Beherrschen des Spiels von GO ohne menschliches Wissen, Nature 2017 [Papier].
- Beherrschen Sie das Spiel des GO mit tiefen neuronalen Netzwerken und Baumsuche, Nature 2016 [Papier].
- Temporal-Difference-Suche in Computer Go, Machine Learning, 2012 [Papier].
- Monte-Carlo Tree-Suche und schnelle Schätzung des Aktionswerts in Computer Go, Artificial Intelligence, 2011 [Papier].
- Berechnung von „ELO -Bewertungen“ von Bewegungsmustern im Game of Go, ICGA Journal, 2007 [Papier].
Starcraft
- Grandmaster Level in Starcraft II unter Verwendung von Verstärkungslernen mit mehreren Agenten, Nature 2019 [Papier].
- Über die Verstärkungslernen für Game of Starcraft in voller Länge, AAAI 2019 [Papier].
- Stabilisierungserfahrung Wiederholung für tiefes Verstärkungslernen mit mehreren Agenten, ICML 2017 [Papier].
- Kooperatives Verstärkungslernen für mehrere Einheiten Kampf in StarCraft, SSCI 2017 [Papier].
- Lernen von Makromanien in Starcraft aus Wiederholungen mit Deep Learning, CIG 2017 [Papier].
- Anwenden von Verstärkungslernen auf kleine Kämpfe im Echtzeit-Strategiespiel Starcraft: Broodwar, CIG 2012 [Papier].
Konferenzen und Workshops
- IEEE -Konferenz über Computational Intelligence and Games (CIG)
- AAAI -Workshop zum Verstärkungslernen in Spielen
- Überbrückungsspieltheorie und tiefes Lernen
- IJCAI 2018 Computer Games Workshop
- IEEE -Konferenz über Spiele (COG)
Wettbewerbe
- Internationale Computerspielvereinigung (ICGA)
- Jährlicher Computerpokerwettbewerb
Verwandte Listen
- Awesome Starcraft Ai
- Fantastisches Tiefverstärkungslernen