رهيبة اللعبة
قائمة منسقة ، ولكن غير مكتملة ، من موارد Game AI على التعلم متعدد الوكلاء .
إذا كنت ترغب في المساهمة في هذه القائمة ، فلا تتردد في إرسال طلب سحب. كما يمكنك الاتصال [email protected] ، أو [email protected].
؟ الأخبار: يرجى مراجعة نموذج السلسلة الزمنية الكبيرة المفتوحة (LTSM)!
؟ هل سمعت عن الذكاء الاصطناعي المتمحور حول البيانات؟ يرجى الاطلاع على مسح AI المتمحور حول البيانات وموارد الذكاء الاصطناعي المتمحورة حول البيانات!
ما هي لعبة الذكاء الاصطناعي؟
تركز Game AI على التنبؤ بالأفعال التي يجب اتخاذها ، بناءً على الظروف الحالية. بشكل عام ، تتضمن معظم الألعاب نوعًا من الذكاء الاصطناعي ، والتي عادة ما تكون شخصيات أو لاعبين في اللعبة. بالنسبة لبعض الألعاب الشائعة مثل Starcraft و Dota 2 ، قضى المطورون سنوات لتصميم وصقل الذكاء الاصطناعي لتعزيز التجربة.
وكيل واحد مقابل الوكيل متعدد
تم إجراء العديد من الدراسات والإنجازات للعبة AI في بيئات الوكيل الفردي ، حيث يوجد لاعب واحد في الألعاب. على سبيل المثال ، يتم تطبيق التعلم العميق Q بنجاح على ألعاب Atari. ومن الأمثلة الأخرى على Super Mario و Minecraft و Flappy Bird.
تعتبر البيئات المتعددة العوامل أكثر تحديا حيث يتعين على كل لاعب التفكير في تحركات اللاعبين الآخرين. عززت تقنيات التعلم التعزيز الحديثة لعبة متعددة العوامل منظمة العفو الدولية. في عام 2015 ، فاز Alphago ، لأول مرة على لاعب Go Professional البشري على لوحة بحجم 19 × 19. في عام 2017 ، علم Alphazero نفسه من الصفر وتعلم إتقان ألعاب الشطرنج ، Shogi ، والذهاب. في السنوات الأخيرة ، بذل الباحثون جهودًا لألعاب البوكر ، مثل Libratus و Deepstack و Douzero ، حيث حققوا أداءً على مستوى الخبراء في Texas Hold'em ولعبة البوكر الصينية Dou Dizhu. يستمر الباحثون الآن في التقدم ويحققون الذكاء الاصطناعي على مستوى الإنسان على Dota 2 و Starcraft 2 مع تعلم التعزيز العميق.
معلومات مثالية مقابل معلومات غير كاملة
تعني المعلومات المثالية أن كل لاعب لديه إمكانية الوصول إلى نفس المعلومات للعبة ، على سبيل المثال ، GO ، الشطرنج ، و Gomoku. تشير المعلومات غير الكاملة إلى الموقف الذي لا يمكن للاعبين مراقبة الحالة الكاملة للعبة. على سبيل المثال ، في ألعاب الورق ، لا يمكن للاعب مراقبة أيدي اللاعبين الآخرين. عادة ما تعتبر ألعاب المعلومات غير الكاملة أكثر تحديا مع المزيد من الاحتمالات.
ما الذي تم تضمينه؟
يجمع هذا المستودع بعض الموارد الرائعة لـ Game AI على التعلم متعدد الوكلاء لكل من ألعاب المعلومات المثالية وغير الكاملة ، بما في ذلك على سبيل المثال لا الحصر المشاريع مفتوحة المصدر ، وأوراق المراجعة ، والأوراق البحثية ، والمؤتمرات ، والمسابقات. يتم تصنيف الموارد بواسطة الألعاب ، ويتم فرز الأوراق حسب السنوات.
جدول المحتويات
- مشاريع مفتوحة المصدر
- مجموعات أدوات موحدة
- تكساس هولد
- دو ديزو
- Starcraft
- يذهب
- جوموكو
- الشطرنج
- الشطرنج الصيني
- المراجعة والأوراق العامة
- أوراق البحث
- الرهان ألعاب
- دو ديزو
- محجونغ
- كوبري
- يذهب
- Starcraft
- المؤتمرات وورش العمل
- المسابقات
- القوائم ذات الصلة
مشاريع مفتوحة المصدر
مجموعات أدوات موحدة
- RLCard: مجموعة أدوات للتعلم التعزيز في ألعاب الورق [ورقة] [رمز].
- OpenSpiel: إطار للتعلم التعزيز في الألعاب [Paper] [Code].
- Unity Ml-Agents Toolkit [Paper] [Code].
- Alpha Zero General [Code].
مشاريع تكساس Hold'em
- Deepstack-leduc [ورقة] [رمز].
- Deepholdem [رمز].
- Openai Gym No Limit Texas Hold 'Em Environ for Bearniversed Learning [Code].
- PypokerEngine [رمز].
- Deep Mind Pokerbot لـ pokerstars و partypoker [الكود].
مشاريع دو ديزو
- PerfectDou: السيطرة على Doudizhu مع تقطير المعلومات المثالية [رمز].
- Douzero: إتقان Doudizhu مع تعليم التعزيز العميق للعب الذاتي [رمز].
- Doudizhu AI باستخدام التعلم التعزيز [رمز].
- Dou di Zhu مع التعلم Q Combination [Paper] [الكود].
- Doudizhu [رمز].
- 斗地主 AI 设计与实现 [الكود].
مشاريع Starcraft
- بيئة التعلم في StarCraft II [ورقة] [رمز].
- Gym StarCraft [رمز].
- StartCraft II أمثلة التعلم التعزيز [الرمز].
- دليل لبيئة STARCRAFT AI DeepMind [رمز].
- إعادة تنفيذ alphastar على أساس di-edgine مع نماذج مدربة [رمز].
الذهاب المشاريع
- ELF: منصة لأبحاث اللعبة مع إعادة تنفيذ AlphaGozero/Alphazero [رمز] [ورقة].
مشاريع جوموكو
- alphazero-gomoku [رمز].
- غوبانغ [رمز].
مشاريع الشطرنج
- الشطرنج ألفا الصفر [رمز].
- وردي عميق [رمز].
- شطرنج بسيطة [رمز].
مشاريع الشطرنج الصينية
مشاريع محجونغ
- Pymahjong (اليابانية Riichi Mahjong) [رمز].
- البشر [رمز].
المراجعة والأوراق العامة
- تعلم التعزيز العميق من اللعب الذاتي في ألعاب المعلومات غير الكاملة ، Arxiv 2016 [ورقة].
- تعلم التعزيز متعدد الوكلاء: نظرة عامة ، 2010 [ورقة].
- نظرة عامة على التعلم التعاوني المتعدد التنافسي والتنافسي ، لاماس 2005 [ورقة].
- تعلم التعزيز متعدد الوكلاء: مسح نقدي ، 2003 [ورقة].
أوراق البحث
الرهان ألعاب
تعد ألعاب الرهان واحدة من أشكال ألعاب البوكر الأكثر شعبية. تتضمن القائمة Goofspiel و Kuhn Poker و Leduc Poker و Texas Hold'em.
- ديناميات النسخ المتماثل العصبي ، Arxiv 2019 [ورقة].
- حوسبة التوازن التقريبي في ألعاب الخصومة المتسلسلة عن طريق استغلال الهبوط ، IJCAI 2019 [Paper].
- حل ألعاب المعلومات غير الكاملة عبر تقليل الأسف المخفض ، AAAI 2019 [Paper].
- الحد الأدنى للأسف المضاد للعلاج ، ICML ، 2019 [ورقة].
- تحسين السياسة الفاعلة الناقدة في بيئات متعددة يمكن ملاحظتها جزئيًا ، Neups 2018 [Paper].
- حل آمن ومتداخل للألعاب الفرعية لألعاب المعلومات غير الكاملة ، Neurips ، 2018 [Paper].
- DEEPSTACK: الذكاء الاصطناعي على مستوى الخبراء في لعبة البوكر No-Limit Heads ، Science 2017 [Paper].
- نهج نظري للعبة موحدة للتعلم التعزيز المتعدد ، Neups 2017 [Paper].
- لعبة البوكر-CNN: استراتيجية تعلم أنماط لجعل السحب والرهانات في ألعاب البوكر باستخدام الشبكات التلافيفية [ورقة].
- تعلم التعزيز العميق من اللعب الذاتي في ألعاب المعلومات غير الكاملة ، Arxiv 2016 [ورقة].
- اللعب الذاتي الوهمي في ألعاب واسعة النطاق ، ICML 2015 [Paper].
- Solving Heads-Up Limit Texas Hold'em ، ijcai 2015 [paper].
- الأسف إلى الحد الأدنى في الألعاب مع معلومات غير مكتملة ، Neups 2007 [Paper].
دو ديزو
- PerfectDou: السيطرة على Doudizhu مع تقطير المعلومات المثالية ، Neups 2022 [ورقة] [رمز].
- Douzero: إتقان Doudizhu مع التعلم التعزيز العميق للعب الذاتي ، ICML 2021 [ورقة] [رمز].
- Deltadou: Doudizhu AI على مستوى الخبراء من خلال اللعب الذاتي ، Ijcai 2019 [Paper].
- التعلم Q المركب لـ Dou di Zhu ، Arxiv 2019 [Paper] [Code].
- حدد التحديد والمعلومات Monte Carlo Tree Search عن لعبة البطاقة Dou Zhu ، CIG 2011 [Paper].
محجونغ
- توجيه Oracle التباين لتعلم التعزيز ، ICLR 2022 [ورقة]
- Suphx: إتقان Mahjong مع التعلم التعزيز العميق ، Arxiv 2020 [ورقة].
- طريقة لبناء لاعب الذكاء الاصطناعي مع تجريد لعمليات اتخاذ القرار Markov في لعبة Mahjong متعددة اللاعبين ، Arxiv 2019 [Paper].
- بناء لاعب Mahjong كمبيوتر على أساس مونت كارلو محاكاة ونماذج الخصم ، IEEE CIG 2017 [Paper].
كوبري
- تعزيز الجسر الذكاء الاصطناعي ، Ictai 2017 [ورقة].
يذهب
- إتقان لعبة GO بدون معرفة إنسانية ، Nature 2017 [Paper].
- إتقان لعبة GO مع الشبكات العصبية العميقة والبحث عن الأشجار ، Nature 2016 [Paper].
- البحث عن الفرق الزمني في الكمبيوتر GO ، التعلم الآلي ، 2012 [ورقة].
- Monte-Carlo Tree Search وتقدير قيمة الحركة السريعة في الكمبيوتر ، الذكاء الاصطناعي ، 2011 [ورقة].
- حساب "تقييمات ELO" لأنماط التحرك في لعبة Go ، ICGA Journal ، 2007 [Paper].
Starcraft
- مستوى Grandmaster في Starcraft II باستخدام التعلم التعزيز متعدد الوكلاء ، Nature 2019 [Paper].
- على التعلم التعزيز للعبة الكاملة لـ StarCraft ، AAAI 2019 [Paper].
- استقرار تجربة إعادة تشغيل التعلم العميق متعدد الوكلاء ، ICML 2017 [ورقة].
- تعلم التعزيز التعاوني للوحدات المتعددة القتال في Starcraft ، SSCI 2017 [ورقة].
- تعلم الإدارة في StarCraft من Reproways باستخدام Deep Learning ، CIG 2017 [Paper].
- تطبيق التعلم التعزيز على القتال على نطاق صغير في لعبة الإستراتيجية في الوقت الفعلي StarCraft: Broodwar ، CIG 2012 [Paper].
المؤتمرات وورش العمل
- مؤتمر IEEE حول الذكاء الحسابي والألعاب (CIG)
- ورشة AAAI حول التعلم التعزيز في الألعاب
- نظرية سد اللعبة والتعلم العميق
- iJcai 2018 Workshop ألعاب الكمبيوتر
- مؤتمر IEEE على الألعاب (COG)
المسابقات
- رابطة ألعاب الكمبيوتر الدولية (ICGA)
- مسابقة بوكر الكمبيوتر السنوية
القوائم ذات الصلة
- رهيبة starcraft ai
- تعلم تعزيز عميق رائع