Game-Game-Ai
Daftar sumber daya AI game yang dikuratori, tetapi tidak lengkap, pada pembelajaran multi-agen .
Jika Anda ingin berkontribusi pada daftar ini, jangan ragu untuk mengirim permintaan tarik. Anda juga dapat menghubungi [email protected], atau [email protected].
? Berita: Silakan periksa Model Time Series (LTSM) yang bersumber dari open-source!
? Pernahkah Anda mendengar tentang AI yang berpusat pada data? Silakan periksa survei AI yang berpusat pada data kami dan sumber daya AI yang luar biasa data!
Apa itu Game AI?
Game AI berfokus pada memprediksi tindakan mana yang harus diambil, berdasarkan kondisi saat ini. Secara umum, sebagian besar game menggabungkan semacam AI, yang biasanya karakter atau pemain dalam permainan. Untuk beberapa game populer seperti Starcraft dan Dota 2, pengembang telah menghabiskan bertahun -tahun untuk merancang dan memperbaiki AI untuk meningkatkan pengalaman.
Agen tunggal vs multi-agen
Sejumlah studi dan pencapaian telah dilakukan untuk Game AI di lingkungan agen tunggal, di mana ada satu pemain dalam permainan. Misalnya, Qeep Q-Learning berhasil diterapkan pada game Atari. Contoh lain termasuk Super Mario, Minecraft, dan Flappy Bird.
Lingkungan multi-agen lebih menantang karena setiap pemain harus beralasan tentang gerakan pemain lain. Teknik pembelajaran penguatan modern telah meningkatkan AI game multi-agen. Pada 2015, Alphago, untuk pertama kalinya mengalahkan pemain GO profesional manusia dengan papan 19 × 19 ukuran penuh. Pada 2017, Alphazero mengajar sendiri dari awal dan belajar menguasai permainan catur, shogi, dan pergi. Dalam beberapa tahun terakhir, para peneliti telah melakukan upaya untuk permainan poker, seperti Libratus, Deepstack dan Doubero, mencapai kinerja tingkat ahli di Texas Hold'em dan game poker Cina Dou Dizhu. Sekarang para peneliti terus maju dan mencapai AI tingkat manusia di Dota 2 dan Starcraft 2 dengan pembelajaran penguatan yang mendalam.
Informasi sempurna vs. informasi yang tidak sempurna
Informasi yang sempurna berarti bahwa setiap pemain memiliki akses ke informasi yang sama dari permainan, misalnya, Go, Catur, dan Gomoku. Informasi yang tidak sempurna mengacu pada situasi di mana pemain tidak dapat mengamati keadaan penuh permainan. Misalnya, dalam permainan kartu, seorang pemain tidak dapat mengamati tangan pemain lain. Permainan informasi yang tidak sempurna biasanya dianggap lebih menantang dengan lebih banyak kemungkinan.
Apa yang disertakan?
Repositori ini mengumpulkan beberapa sumber daya yang luar biasa untuk game AI pada pembelajaran multi-agen untuk permainan informasi yang sempurna dan tidak sempurna, termasuk tetapi tidak terbatas pada, proyek open-source, makalah ulasan, makalah penelitian, konferensi, dan kompetisi. Sumber daya dikategorikan berdasarkan permainan, dan makalah diurutkan berdasarkan bertahun -tahun.
Daftar isi
- Proyek open-source
- Toolkit Terpadu
- Texas Hold'em
- Dou Dizhu
- Starcraft
- Pergi
- Gomoku
- Catur
- Catur Cina
- Ulasan dan Makalah Umum
- Makalah Penelitian
- Game taruhan
- Dou Dizhu
- Mahjong
- Menjembatani
- Pergi
- Starcraft
- Konferensi dan lokakarya
- Kompetisi
- Daftar terkait
Proyek open-source
Toolkit Terpadu
- RLCARD: Perangkat untuk pembelajaran penguatan dalam permainan kartu [kertas] [kode].
- OpenSpiel: Kerangka kerja untuk pembelajaran penguatan di game [kertas] [kode].
- Unity ML-agents toolkit [kertas] [kode].
- Alpha Zero General [kode].
Proyek Texas Hold'em
- Deepstack-leduc [kertas] [kode].
- DEEPHOLDEM [kode].
- Openai Gym No Limit Texas Hold 'Em Environment for Reinforcement Learning [Code].
- Pypokerengine [kode].
- Deep Mind PokerBot untuk PokerStars dan Partypoker [kode].
Dou Dizhu Projects
- PerfectDou: mendominasi doudizhu dengan distilasi informasi yang sempurna [kode].
- Douzero: Menguasai Doudizhu dengan mandiri belajar penguatan yang mendalam [kode].
- Doudizhu Ai Menggunakan Penguatan Pembelajaran [Kode].
- Dou Di Zhu dengan kombinasional Q-learning [kertas] [kode].
- Doudizhu [kode].
- 斗地主 ai 设计与实现 [kode].
Proyek Starcraft
- Lingkungan belajar Starcraft II [kertas] [Kode].
- Gym Starcraft [kode].
- Contoh Pembelajaran Penguatan StartCraft II [kode].
- Panduan untuk Lingkungan AI Starcraft Deepmind [kode].
- Implementasi Alphastar berdasarkan di-mesin dengan model terlatih [kode].
Pergi proyek
- ELF: Platform untuk riset game dengan Alphagozero/Alphazero Reimplementation [Code] [Paper].
Proyek Gomoku
- Alphazero-gomoku [kode].
- Gobang [kode].
Proyek catur
- Catur-alpha-Zero [kode].
- [Kode] merah muda pink.
- AI catur sederhana [kode].
Proyek Catur Cina
- Cczero (中国象棋 nol) [kode].
Proyek Mahjong
- Pymahjong (Jepang Riichi Mahjong) [Kode].
- [Kode] fana.
Ulasan dan Makalah Umum
- Pembelajaran penguatan yang mendalam dari permainan mandiri dalam game informasi yang tidak sempurna, Arxiv 2016 [kertas].
- Pembelajaran Penguatan Multi-Agen: Tinjauan Umum, 2010 [Makalah].
- Tinjauan umum pembelajaran multi -agen kooperatif dan kompetitif, LAMAS 2005 [kertas].
- Pembelajaran Penguatan Multi-Agen: Survei Kritis, 2003 [Makalah].
Makalah Penelitian
Game taruhan
Game taruhan adalah salah satu bentuk game poker paling populer. Daftar ini termasuk Goofspiel, Kuhn Poker, Leduc Poker, dan Texas Hold'em.
- Neural Replicator Dynamics, ARXIV 2019 [kertas].
- Komputasi perkiraan keseimbangan dalam game permusuhan berurutan dengan keturunan eksploitabilitas, IJCAI 2019 [kertas].
- Memecahkan game informasi yang tidak sempurna melalui minimalisasi penyesalan diskon, AAAI 2019 [kertas].
- Minimalisasi penyesalan kontrafaktual yang dalam, ICML, 2019 [kertas].
- Optimalisasi kebijakan aktor-kritik di lingkungan multi-agen yang dapat diamati sebagian, Neurips 2018 [kertas].
- Pemecahan subgame yang aman dan bersarang untuk game informasi yang tidak sempurna, Neurips, 2018 [kertas].
- Deepstack: Kecerdasan buatan tingkat ahli dalam poker tanpa batas, Science 2017 [kertas].
- Pendekatan permainan-teoretik terpadu untuk pembelajaran penguatan multiagen, Neurips 2017 [kertas].
- Poker-CNN: Strategi pembelajaran pola untuk membuat pengundian dan taruhan dalam permainan poker menggunakan jaringan konvolusional [kertas].
- Pembelajaran penguatan yang mendalam dari permainan mandiri dalam game informasi yang tidak sempurna, Arxiv 2016 [kertas].
- Permainan diri fiktif dalam permainan bentuk yang luas, ICML 2015 [kertas].
- Memecahkan batas head-up Texas Hold'em, Ijcai 2015 [kertas].
- Penyesalan minimalisasi dalam permainan dengan informasi yang tidak lengkap, Neurips 2007 [kertas].
Dou Dizhu
- PerfectDou: mendominasi doudizhu dengan distilasi informasi yang sempurna, Neurips 2022 [kertas] [kode].
- Douzero: Menguasai Doudizhu dengan pembelajaran penguatan dalam-mandiri, ICML 2021 [kertas] [kode].
- Deltadou: Doudizhu AI tingkat ahli melalui permainan mandiri, ijcai 2019 [kertas].
- Kombinasi Q-Learning untuk Dou Di Zhu, ARXIV 2019 [kertas] [Kode].
- Penentuan dan informasi yang ditetapkan Monte Carlo Tree mencari permainan kartu Dou Di Zhu, Cig 2011 [kertas].
Mahjong
- Variational Oracle Guiding for Implemcement Learning, ICLR 2022 [Kertas]
- SUPHX: Menguasai mahjong dengan pembelajaran penguatan yang mendalam, Arxiv 2020 [kertas].
- Metode untuk membangun pemain kecerdasan buatan dengan abstraksi untuk proses keputusan Markov dalam permainan multipemain Mahjong, Arxiv 2019 [kertas].
- Membangun Pemain Mahjong komputer berdasarkan simulasi Monte Carlo dan model lawan, IEEE CIG 2017 [kertas].
Menjembatani
- Meningkatkan kecerdasan buatan jembatan, ictai 2017 [kertas].
Pergi
- Menguasai Game of Go tanpa pengetahuan manusia, Nature 2017 [kertas].
- Menguasai permainan Go dengan jaringan saraf yang dalam dan pencarian pohon, Nature 2016 [kertas].
- Pencarian diferensial temporal di komputer Go, Machine Learning, 2012 [kertas].
- Pencarian pohon Monte-Carlo dan estimasi nilai aksi cepat di komputer, kecerdasan buatan, 2011 [kertas].
- Menghitung "peringkat ELO" dari pola bergerak dalam Game of Go, ICGA Journal, 2007 [kertas].
Starcraft
- Level Grandmaster di Starcraft II menggunakan pembelajaran penguatan multi-agen, Nature 2019 [kertas].
- Tentang Penguatan Pembelajaran untuk Game Full-Length Starcraft, AAAI 2019 [Paper].
- Penstabil Pengalaman Replay untuk Pembelajaran Penguatan Multi-Agen yang Dalam, ICML 2017 [Kertas].
- Pembelajaran Penguatan Koperasi untuk beberapa unit pertempuran di Starcraft, SSCI 2017 [kertas].
- Mempelajari Manajemen Makran di Starcraft dari Replay Menggunakan Deep Learning, CIG 2017 [Kertas].
- Menerapkan pembelajaran penguatan untuk pertempuran skala kecil di game strategi real-time Starcraft: Broodwar, Cig 2012 [kertas].
Konferensi dan lokakarya
- Konferensi IEEE tentang Kecerdasan dan Permainan Komputasi (CIG)
- Lokakarya AAAI tentang Pembelajaran Penguatan di Game
- Menjembatani teori permainan dan pembelajaran mendalam
- IJCAI 2018 Workshop Game Komputer
- Konferensi IEEE tentang Game (COG)
Kompetisi
- International Computer Games Association (ICGA)
- Kompetisi poker komputer tahunan
Daftar terkait
- Starcraft AI yang luar biasa
- Pembelajaran Penguatan Mendalam yang Luar Biasa