Потрясающая игра-ай
Куратор, но неполный список ресурсов ИИ игры на многоагентное обучение.
Если вы хотите внести свой вклад в этот список, пожалуйста, не стесняйтесь отправлять запрос на привлечение. Также вы можете связаться с [email protected] или [email protected].
? Новости: Пожалуйста, ознакомьтесь с нашей моделью больших временных рядов с открытым исходным кодом (LTSM)!
? Вы слышали об искусственном интеллекте, ориентированном на данные? Пожалуйста, ознакомьтесь с нашим исследованием искусственного интеллекта, ориентированным на данные, и удивительные ресурсы ИИ, ориентированные на данные!
Что такое ИИ ИИ?
ИГ ИИ сосредоточен на прогнозировании того, какие действия следует предпринять, на основе текущих условий. Как правило, большинство игр включают в себя какой -то ИИ, который обычно являются персонажами или игроками в игре. Для некоторых популярных игр, таких как Starcraft и Dota 2, разработчики потратили годы на разработку и уточнение ИИ, чтобы улучшить опыт.
Одноагент против мультиагентов
Многочисленные исследования и достижения были проведены в ИГ ИИ в среде одного агента, где в играх есть один игрок. Например, глубокое Q-обучение успешно применяется к играм Atari. Другие примеры включают Super Mario, Minecraft и Flappy Bird.
Многоагентные среды более сложны, поскольку каждый игрок должен рассуждать о ходах других игроков. Современные методы обучения подкрепления увеличили многоагентную игру Game. В 2015 году, Alphago, впервые победил игрока Professional Go на полноразмерной доске 19 × 19. В 2017 году Альфазеро учил себя с нуля и научился освоить игры в шахматах, Shogi и Go. В последние годы исследователи предприняли усилия для покерных игр, таких как Libratus, Deepstack и Douzero, достигнув производительности на уровне экспертов в Техасе Hold'em и китайской покерной игре Dou Dizhu. Теперь исследователи продолжают прогрессировать и достигать ИИ на уровне человека на DOTA 2 и Starcraft 2 с глубоким обучением подкрепления.
Идеальная информация против несовершенной информации
Идеальная информация означает, что каждый игрок имеет доступ к одной и той же информации в игре, например, Go, Chess и Gomoku. Несовершенная информация относится к ситуации, когда игроки не могут наблюдать за всем состоянием игры. Например, в карточных играх игрок не может наблюдать за руками других игроков. Несовершенные информационные игры обычно считаются более сложными с большими возможностями.
Что включено?
Этот репозиторий собирает несколько потрясающих ресурсов для ИИ игры на многоагентное обучение как для идеальных, так и для несовершенных информационных игр, включая, помимо прочего, проекты с открытым исходным кодом, обзорные документы, исследовательские работы, конференции и соревнования. Ресурсы классифицируются по играм, а документы сортируются по годам.
Оглавление
- Проекты с открытым исходным кодом
- Унифицированные инструментальные наборы
- Техас Холд
- Доу Дицху
- Starcraft
- Идти
- Гомоку
- Шахматы
- Китайские шахматы
- Обзор и общие документы
- Исследовательские работы
- Ставки на игры
- Доу Дицху
- Маджонг
- Мост
- Идти
- Starcraft
- Конференции и семинары
- Соревнования
- Связанные списки
Проекты с открытым исходным кодом
Унифицированные инструментальные наборы
- RLCARD: инструментарий для обучения подкреплению в карточных играх [Paper] [Код].
- OpenSpiel: основа для обучения подкреплению в играх [Paper] [Code].
- Unity ML-Agents Toolkit [Paper] [Код].
- Alpha Zero General [код].
Техасские проекты
- Deepstack-leduc [Paper] [Код].
- Deepholdem [код].
- Openai Gym без ограничения Texas Hold 'EM Environment для подкрепления [код].
- Pypokerengine [код].
- Deep Mind PokerBot для PokerStars и PartyPoker [Code].
Dou Dizhu Projects
- PerfectDou: доминировать в Дудиджу с идеальной информационной дистилляцией [код].
- Douzero: Освоение Дудижу с самостоятельным обучением глубокого подкрепления [код].
- Doudizhu AI с использованием подкрепления обучения [код].
- Dou di Zhu с комбинационным Q-обучением [Paper] [Code].
- Doudizhu [код].
- 斗地主 ai 设计与实现 [код].
Starcraft Projects
- Starcraft II Учебная среда [бумага] [код].
- Gym Starcraft [код].
- Примеры обучения Startcraft II [код].
- Руководство по среде AI DeepMind Starcraft [код].
- Повторная повторная алфастар на основе ди-инженера с помощью обученных моделей [код].
Go Projects
- ELF: платформа для исследований в области игры с реумплемацией Alphagozero/Alphazero [Code] [Paper].
Гомоку Проекты
- Alphazero-gomoku [код].
- Гобанг [код].
Шахматные проекты
- Шахматы-альфа-ноле [код].
- Deep Pink [Code].
- Простой шахмат AI [код].
Китайские шахматные проекты
- Cczero (中国象棋 Zero) [код].
Маджонг проекты
- Пимахджонг (японский Риичи Маджонг) [код].
- Mortal [код].
Обзор и общие документы
- Глубокое подкрепление обучения на самостоятельстве в невыполненных информационных играх, Arxiv 2016 [Paper].
- Многоагентное обучение подкреплению: обзор, 2010 [Paper].
- Обзор кооперативного и конкурентного многоагентного обучения, Lamas 2005 [Paper].
- Многоагентное обучение подкреплению: критический опрос, 2003 [Paper].
Исследовательские работы
Ставки на игры
Ставки на игры являются одной из самых популярных форм покерных игр. Список включает в себя Goofspiel, Kuhn Poker, Leduc Poker и Texas Hold'em.
- Нейронная репликатор Dynamics, Arxiv 2019 [Paper].
- Вычисление приблизительного равновесия в последовательных состязательных играх с помощью эксплуатации эксплуатации, IJCAI 2019 [Paper].
- Решение несовершенных игр с дисконтированной минимизацией сожаления, AAAI 2019 [Paper].
- Глубокая контрфактуальная минимализация, ICML, 2019 [Paper].
- Актер-критическая оптимизация политики в частично наблюдаемых многоагентных средах, Neurips 2018 [Paper].
- Безопасное и вложенное разрешение подэггмы для игр несовершенной информации, Neurips, 2018 [Paper].
- DeepStack: Искусственный интеллект на уровне эксперта в покере без ограничений, Science 2017 [Paper].
- Единый теоретичный подход к многоагентному обучению подкрепления, Neurips 2017 [Paper].
- Poker-CNN: стратегия обучения шаблона для выполнения рисунков и ставок в покерных играх с использованием сверточных сетей [Paper].
- Глубокое подкрепление обучения на самостоятельстве в невыполненных информационных играх, Arxiv 2016 [Paper].
- Фиктивная самостоятельная игра в обширных играх, ICML 2015 [Paper].
- Решение лимита Heads-Up Texas hold'em, ijcai 2015 [Paper].
- Минимизация сожаления в играх с неполной информацией, Neurips 2007 [Paper].
Доу Дицху
- PerfectDou: доминировать в Дудичу с идеальной информационной дистилляцией, Neurips 2022 [Paper] [Code].
- Douzero: Освоение Дудичу с самостоятельным обучением глубокого подкрепления, ICML 2021 [Paper] [Code].
- DELTADOU: Doudizhu AI на уровне эксперта через самостоятельный игрок, IJCAI 2019 [Paper].
- Комбинационный Q-обучение для Dou Di Zhu, Arxiv 2019 [Paper] [Code].
- Определение и набор информации и поиск Монте -Карло Поиск карточной игры Dou Di Zhu, CIG 2011 [Paper].
Маджонг
- Вариационное руководство Oracle для обучения подкреплению, ICLR 2022 [Paper]
- SUPHX: Освоение Маджонга с глубоким обучением подкрепления, Arxiv 2020 [Paper].
- Метод построения игрока искусственного интеллекта с абстракцией процессов принятия решений Маркова в многопользовательской игре Mahjong, Arxiv 2019 [Paper].
- Создание компьютерного игрока Mahjong на основе модели Monte Carlo и моделей оппонента, IEEE CIG 2017 [Paper].
Мост
- Повышение искусственного интеллекта моста, ICTAI 2017 [Paper].
Идти
- Освоение игры Go Bood Hean Знания, Nature 2017 [Paper].
- Освоение игры Go с глубокими нейронными сетями и поиском деревьев, Nature 2016 [Paper].
- Поиск временного распада в компьютере Go, Machine Learning, 2012 [Paper].
- Поиск дерева Монте-Карло и оценка быстрого значения действия в компьютере GO, Artificial Intelligence, 2011 [Paper].
- Вычисление «рейтинги ELO» шаблонов движения в игре Go, ICGA Journal, 2007 [Paper].
Starcraft
- Уровень Grandmaster в Starcraft II Используя многоагентное обучение подкреплению, Nature 2019 [Paper].
- О обучении подкрепления для полнометражного игры Starcraft, AAAI 2019 [Paper].
- Стабилизирующий опыт воспроизведения для глубокого многоагентного обучения подкреплению, ICML 2017 [Paper].
- Совместное обучение подкреплению для нескольких единиц боя в Starcraft, SSCI 2017 [Paper].
- Изучение макроманизации в Starcraft из повторных переполов с использованием глубокого обучения, CIG 2017 [Paper].
- Применение подкрепления обучения к мелкомасштабным бою в стратегической игре в реальном времени Starcraft: Broodwar, Cig 2012 [Paper].
Конференции и семинары
- Конференция IEEE по вычислительной интеллекту и играх (CIG)
- Семинар AAAI по обучению подкрепления в играх
- Соединение теории игр и глубокого обучения
- IJCAI 2018 Computer Games Workshop
- IEEE Conference On Games (COG)
Соревнования
- Международная ассоциация компьютерных игр (ICGA)
- Ежегодный конкурс компьютерного покера
Связанные списки
- Awesome Starcraft AI
- Потрясающее обучение глубоким подкреплением