เกมที่ยอดเยี่ยม
รายการทรัพยากรเกม AI ที่ได้รับการดูแล แต่ไม่สมบูรณ์ แต่ไม่สมบูรณ์เกี่ยวกับการเรียนรู้ หลายตัวแทน
หากคุณต้องการมีส่วนร่วมในรายการนี้โปรดส่งคำขอดึง นอกจากนี้คุณสามารถติดต่อ [email protected] หรือ [email protected]
- ข่าว: โปรดตรวจสอบโมเดลซีรีส์ขนาดใหญ่ที่เปิดกว้าง (LTSM) ของเรา!
- คุณเคยได้ยินเกี่ยวกับข้อมูล AI ที่เน้นข้อมูลเป็นศูนย์กลางหรือไม่? โปรดตรวจสอบการสำรวจข้อมูล AI ที่เน้นข้อมูลเป็นศูนย์กลางของเราและแหล่งข้อมูล AI ที่เน้นข้อมูลเป็นศูนย์กลาง!
เกม AI คืออะไร?
Game AI มุ่งเน้นไปที่การทำนายว่าควรดำเนินการใดตามเงื่อนไขปัจจุบัน โดยทั่วไปเกมส่วนใหญ่จะรวม AI บางประเภทซึ่งมักจะเป็นตัวละครหรือผู้เล่นในเกม สำหรับเกมยอดนิยมบางเกมเช่น Starcraft และ Dota 2 นักพัฒนาได้ใช้เวลาหลายปีในการออกแบบและปรับแต่ง AI เพื่อปรับปรุงประสบการณ์
ตัวแทนเดี่ยวกับหลายตัวแทน
การศึกษาและความสำเร็จจำนวนมากได้ถูกสร้างขึ้นเพื่อเล่นเกม AI ในสภาพแวดล้อมแบบตัวแทนเดี่ยวซึ่งมีผู้เล่นคนเดียวในเกม ตัวอย่างเช่น Q-Learning ลึกสามารถนำไปใช้กับเกมอาตาริได้สำเร็จ ตัวอย่างอื่น ๆ ได้แก่ Super Mario, Minecraft และ Flappy Bird
สภาพแวดล้อมที่หลากหลายมีความท้าทายมากขึ้นเนื่องจากผู้เล่นแต่ละคนต้องมีเหตุผลเกี่ยวกับการเคลื่อนไหวของผู้เล่นคนอื่น เทคนิคการเรียนรู้การเสริมแรงที่ทันสมัยได้เพิ่มเกม AI หลายเอเจนต์ ในปี 2558 อัลฟาโกเป็นครั้งแรกที่เอาชนะผู้เล่นมืออาชีพของมนุษย์บนกระดานขนาด 19 × 19 ขนาดเต็ม ในปี 2560 Alphazero สอนตัวเองตั้งแต่เริ่มต้นและเรียนรู้ที่จะฝึกฝนเกมหมากรุกโชจิและไป ในช่วงไม่กี่ปีที่ผ่านมานักวิจัยได้ใช้ความพยายามในเกมโป๊กเกอร์เช่น Libratus, Deepstack และ Douzero ซึ่งได้รับการแสดงระดับผู้เชี่ยวชาญใน Texas Hold'em และเกมโป๊กเกอร์จีน Dou Dizhu ตอนนี้นักวิจัยยังคงก้าวหน้าและบรรลุ AI ระดับมนุษย์ใน DOTA 2 และ Starcraft 2 ด้วยการเรียนรู้การเสริมแรงอย่างลึกซึ้ง
ข้อมูลที่สมบูรณ์แบบกับข้อมูลที่ไม่สมบูรณ์
ข้อมูลที่สมบูรณ์แบบหมายความว่าผู้เล่นแต่ละคนสามารถเข้าถึงข้อมูลเดียวกันของเกมได้เช่น GO, Chess และ Gomoku ข้อมูลที่ไม่สมบูรณ์หมายถึงสถานการณ์ที่ผู้เล่นไม่สามารถสังเกตสถานะทั้งหมดของเกมได้ ตัวอย่างเช่นในเกมไพ่ผู้เล่นไม่สามารถสังเกตมือของผู้เล่นคนอื่นได้ เกมข้อมูลที่ไม่สมบูรณ์มักจะถือว่าเป็นสิ่งที่ท้าทายมากขึ้นและมีความเป็นไปได้มากขึ้น
รวมอะไร?
ที่เก็บนี้รวบรวมแหล่งข้อมูลที่ยอดเยี่ยมสำหรับเกม AI เกี่ยวกับการเรียนรู้หลายตัวแทนสำหรับเกมข้อมูลที่สมบูรณ์แบบและไม่สมบูรณ์รวมถึง แต่ไม่ จำกัด เพียงโครงการโอเพนซอร์ซทบทวนเอกสารการวิจัยการประชุมการประชุมและการแข่งขัน ทรัพยากรถูกจัดหมวดหมู่โดยเกมและเอกสารถูกจัดเรียงตามหลายปี
สารบัญ
- โครงการโอเพ่นซอร์ส
- ชุดเครื่องมือแบบครบวงจร
- Texas Hold'em
- Dou Dizhu
- สตาร์คราฟต์
- ไป
- โกโมกุ
- หมากรุก
- หมากรุกจีน
- ทบทวนและเอกสารทั่วไป
- งานวิจัย
- เกมเดิมพัน
- Dou Dizhu
- มงกุฎ
- สะพาน
- ไป
- สตาร์คราฟต์
- การประชุมและการประชุมเชิงปฏิบัติการ
- การแข่งขัน
- รายการที่เกี่ยวข้อง
โครงการโอเพ่นซอร์ส
ชุดเครื่องมือแบบครบวงจร
- RLCARD: ชุดเครื่องมือสำหรับการเรียนรู้การเสริมแรงในเกมไพ่ [กระดาษ] [รหัส]
- OpenSpiel: กรอบสำหรับการเรียนรู้การเสริมแรงในเกม [กระดาษ] [รหัส]
- ชุดเครื่องมือ Unity ML-Agents [Paper] [Code]
- Alpha Zero General [รหัส]
โครงการ Texas Hold'em
- Deepstack-LEDUC [กระดาษ] [รหัส]
- Deepholdem [รหัส]
- Openai Gym No limit texas hold 'em environment สำหรับการเรียนรู้การเสริมแรง [รหัส]
- PypokerEngine [รหัส]
- Deep Mind Pokerbot สำหรับ PokerStars และ Partypoker [รหัส]
โครงการ Dou Dizhu
- PerfectDou: มีอำนาจเหนือ Doudizhu ด้วยการกลั่นข้อมูลที่สมบูรณ์แบบ [รหัส]
- Douzero: การเรียนรู้ Doudizhu ด้วยการเรียนรู้การเสริมแรงอย่างลึกซึ้งด้วยตนเอง [รหัส]
- Doudizhu AI โดยใช้การเรียนรู้การเสริมแรง [รหัส]
- Dou di zhu กับ combinational q-learning [paper] [รหัส]
- Doudizhu [รหัส]
- 斗地主 ai 设计与实现 [รหัส]
โครงการสตาร์คราฟต์
- สภาพแวดล้อมการเรียนรู้ของ Starcraft II [กระดาษ] [รหัส]
- Gym Starcraft [รหัส]
- startcraft II ตัวอย่างการเรียนรู้การเสริมแรง [รหัส]
- คำแนะนำเกี่ยวกับสภาพแวดล้อม Starcraft AI ของ DeepMind [รหัส]
- การปรับแต่งของอัลฟาสตาร์ขึ้นอยู่กับ Di-engine ด้วยโมเดลที่ผ่านการฝึกอบรม [รหัส]
ไปโครงการ
- ELF: แพลตฟอร์มสำหรับการวิจัยเกมด้วยการสร้างใหม่ของ Alphagozero/Alphazero [รหัส] [กระดาษ]
โครงการ Gomoku
- Alphazero-Gomoku [รหัส]
- Gobang [รหัส]
โครงการหมากรุก
- Chess-Alpha-Zero [รหัส]
- สีชมพูเข้ม [รหัส]
- AI หมากรุกง่าย ๆ [รหัส]
โครงการหมากรุกจีน
- cczero (中国象棋中国象棋中国象棋) [รหัส]
โครงการ Mahjong
- Pymahjong (ญี่ปุ่น Riichi Mahjong) [รหัส]
- มนุษย์ [รหัส]
ทบทวนและเอกสารทั่วไป
- การเรียนรู้การเสริมแรงอย่างลึกล้ำจากการเล่นด้วยตนเองในเกมที่ไม่สมบูรณ์แบบ, Arxiv 2016 [กระดาษ]
- การเรียนรู้การเสริมแรงแบบหลายตัวแทน: ภาพรวม, 2010 [กระดาษ]
- ภาพรวมของการเรียนรู้แบบร่วมมือและการแข่งขัน LAMAS 2005 [กระดาษ]
- การเรียนรู้การเสริมแรงแบบหลายตัวแทน: การสำรวจที่สำคัญ, 2003 [กระดาษ]
งานวิจัย
เกมเดิมพัน
เกมเดิมพันเป็นหนึ่งในรูปแบบที่ได้รับความนิยมมากที่สุดของเกมโป๊กเกอร์ รายการรวมถึง Goofspiel, Kuhn Poker, Leduc Poker และ Texas Hold'em
- Neural Replicator Dynamics, ARXIV 2019 [กระดาษ]
- การคำนวณดุลยภาพโดยประมาณในเกมคู่ปรับตามลำดับโดย Descent ความสามารถในการหาประโยชน์, IJCAI 2019 [กระดาษ]
- การแก้ปัญหาเกมที่ไม่สมบูรณ์ผ่านการลดความเสียใจลดราคา AAAI 2019 [กระดาษ]
- การลดความเสียใจอย่างลึกซึ้งอย่างลึกล้ำ ICML, 2019 [กระดาษ]
- การเพิ่มประสิทธิภาพนโยบายของนักแสดง-นักวิจารณ์ในสภาพแวดล้อมที่หลากหลายที่สังเกตได้บางส่วน, Neurips 2018 [กระดาษ]
- การแก้ปัญหาย่อยที่ปลอดภัยและซ้อนกันสำหรับเกมที่ไม่สมบูรณ์ข้อมูล, Neurips, 2018 [กระดาษ]
- Deepstack: ปัญญาประดิษฐ์ระดับผู้เชี่ยวชาญในการไม่ จำกัด โป๊กเกอร์, วิทยาศาสตร์ 2017 [กระดาษ]
- แนวทางการเล่นเกมแบบครบวงจรเพื่อการเรียนรู้การเสริมแรงแบบหลายหน่วยงาน Neurips 2017 [กระดาษ]
- Poker-CNN: กลยุทธ์การเรียนรู้รูปแบบสำหรับการวาดและเดิมพันในเกมโป๊กเกอร์โดยใช้เครือข่าย convolutional [กระดาษ]
- การเรียนรู้การเสริมแรงอย่างลึกล้ำจากการเล่นด้วยตนเองในเกมที่ไม่สมบูรณ์แบบ, Arxiv 2016 [กระดาษ]
- การเล่นเองสมมติในเกมรูปแบบที่กว้างขวาง ICML 2015 [กระดาษ]
- การแก้ข้อ จำกัด หัวขึ้น Texas Hold'em, ijcai 2015 [กระดาษ]
- รู้สึกเสียใจที่ลดน้อยลงในเกมที่มีข้อมูลที่ไม่สมบูรณ์, Neurips 2007 [กระดาษ]
Dou Dizhu
- PerfectDou: มีอำนาจเหนือ Doudizhu ด้วยการกลั่นข้อมูลที่สมบูรณ์แบบ, Neurips 2022 [กระดาษ] [รหัส]
- Douzero: การเรียนรู้ Doudizhu ด้วยการเรียนรู้การเสริมแรงอย่างลึกล้ำด้วยตนเอง, ICML 2021 [กระดาษ] [รหัส]
- Deltadou: Doudizhu AI ระดับผู้เชี่ยวชาญผ่านการเล่นด้วยตนเอง IJCAI 2019 [กระดาษ]
- Combinational Q-Learning สำหรับ Dou di Zhu, Arxiv 2019 [กระดาษ] [รหัส]
- การกำหนดและข้อมูลชุด Monte Carlo Tree ค้นหาเกมการ์ด Dou di Zhu, Cig 2011 [กระดาษ]
มงกุฎ
- ตัวแปร Oracle นำทางสำหรับการเรียนรู้การเสริมแรง ICLR 2022 [กระดาษ]
- SUPHX: การเรียนรู้ mahjong ด้วยการเรียนรู้การเสริมแรงอย่างลึกซึ้ง, Arxiv 2020 [กระดาษ]
- วิธีการสร้างผู้เล่นปัญญาประดิษฐ์ที่มีนามธรรมในกระบวนการตัดสินใจของมาร์คอฟในเกมผู้เล่นหลายคนของ Mahjong, Arxiv 2019 [Paper]
- การสร้างเครื่องเล่นคอมพิวเตอร์ Mahjong ตามการจำลอง Monte Carlo และโมเดลคู่ต่อสู้ IEEE CIG 2017 [กระดาษ]
สะพาน
- การส่งเสริมปัญญาประดิษฐ์สะพาน, ICTAI 2017 [กระดาษ]
ไป
- การเรียนรู้เกมของ Go โดยปราศจากความรู้ของมนุษย์ธรรมชาติ 2017 [กระดาษ]
- การเรียนรู้เกมของ GO ด้วยเครือข่ายประสาทลึกและการค้นหาต้นไม้, Nature 2016 [กระดาษ]
- การค้นหาความแตกต่างชั่วคราวในคอมพิวเตอร์ GO, การเรียนรู้ของเครื่อง, 2012 [กระดาษ]
- การค้นหาต้นไม้ Monte-Carlo และการประมาณค่าการกระทำอย่างรวดเร็วในคอมพิวเตอร์ GO, ปัญญาประดิษฐ์, 2011 [กระดาษ]
- การคำนวณ“ การจัดอันดับ ELO” ของรูปแบบการย้ายใน Game of Go, ICGA Journal, 2007 [กระดาษ]
สตาร์คราฟต์
- ระดับปรมาจารย์ใน Starcraft II โดยใช้การเรียนรู้การเสริมแรงแบบหลายตัวแทน, Nature 2019 [กระดาษ]
- ในการเรียนรู้การเสริมแรงสำหรับเกม Starcraft ที่มีความยาวเต็มรูปแบบ AAAI 2019 [กระดาษ]
- การเล่นซ้ำประสบการณ์ที่มีเสถียรภาพสำหรับการเรียนรู้การเสริมแรงแบบหลายตัวแทน, ICML 2017 [กระดาษ]
- การเรียนรู้การเสริมแรงแบบร่วมมือสำหรับการต่อสู้หลายหน่วยใน Starcraft, SSCI 2017 [กระดาษ]
- การเรียนรู้การจัดการ Macroman ใน Starcraft จาก Replay โดยใช้การเรียนรู้ลึก, CIG 2017 [กระดาษ]
- การใช้การเรียนรู้การเสริมแรงเพื่อการต่อสู้ขนาดเล็กในเกมกลยุทธ์แบบเรียลไทม์ Starcraft: Broodwar, Cig 2012 [กระดาษ]
การประชุมและการประชุมเชิงปฏิบัติการ
- การประชุม IEEE เกี่ยวกับการคำนวณและเกม (CIG)
- การประชุมเชิงปฏิบัติการ AAAI เกี่ยวกับการเรียนรู้การเสริมแรงในเกม
- เชื่อมโยงทฤษฎีเกมและการเรียนรู้อย่างลึกซึ้ง
- ijcai 2018 การประชุมเชิงปฏิบัติการเกมคอมพิวเตอร์
- การประชุม IEEE เกี่ยวกับเกม (COG)
การแข่งขัน
- สมาคมเกมคอมพิวเตอร์นานาชาติ (ICGA)
- การแข่งขันโป๊กเกอร์คอมพิวเตอร์ประจำปี
รายการที่เกี่ยวข้อง
- starcraft AI ที่ยอดเยี่ยม
- การเรียนรู้การเสริมแรงอย่างลึกซึ้งที่ยอดเยี่ยม