Pemain SSBM berdasarkan Deep Reinforcement Learning.
CATATAN: Proyek ini tidak lagi aktif dan mengalami pembusukan bit. Ada proyek penerus berdasarkan pembelajaran imitasi dari tayangan ulang slippi di https://github.com/vladfi1/slippi-ai.
Diuji pada: Ubuntu >=14.04, OSX, Windows 7/8/10.
pip install -e .
.agents
. Agen terlatih lengkap tersedia di sini. Anda perlu mengetahui di mana letak lumba-lumba. Di Mac jalur lumba-lumba adalah /Applications/Dolphin.app/Contents/MacOS/Dolphin
. Jika dolphin-emu
sudah ada di PATH
Anda maka Anda dapat menghilangkannya.
python3 phillip/run.py --gui --human --start 0 --reload 0 --epsilon 0 --load agents/FalconFalconBF --iso /path/to/SSBM.iso --exe /path/to/dolphin [--windows]
Agen terlatih disimpan di direktori agents
. Selain FalconFalconBF
, agen di agents/delay0/
juga terbilang kuat. Jalankan dengan --help
untuk melihat semua opsi. Agen mirip manusia terbaik adalah delay18/FalcoBF
, tersedia di zip Google Drive.
--exe
akan menjadi jalur ke Binaryx64Dolphin.exe
yang Anda buka ritsletingnya. Secara umum, penerusan /
s harus kembali
s untuk semua jalur, kecuali Anda menggunakan MinGW, Cygwin, git bash, atau emulator unix shell lainnya.3
dari perintah seperti python3
dan pip3
.--tcp 1
(sekarang tersirat oleh --windows
). Anda mungkin juga perlu membuka port 5555 di firewall Anda.--user tmp
(direktori temp yang dibuat python dimulai dengan /tmp/...
dan tidak valid untuk windows dolphin). Pelatihan dikendalikan oleh phillip/train.py
. Lihat juga runner.py
dan launcher.py
untuk pelatihan secara besar-besaran secara paralel pada cluster slurm. Phillip telah dilatih di MGHPCC. Disarankan untuk berlatih dengan lumba-lumba khusus yang menggunakan zmq untuk melakukan sinkronisasi dengan AI - perintah di bawah ini kemungkinan besar akan gagal.
Pelatihan lokal juga dimungkinkan. Pertama, edit runner.py
dengan parameter pelatihan yang Anda inginkan (lanjutan). Kemudian lakukan:
python3 runner.py # will output a path
python3 launcher.py saves/path/ --init --local [--agents number_of_agents] [--log_agents]
Untuk melihat statistik selama latihan:
tensorboard --logdir logs/
Pelatih dan (opsional) agen mengalihkan stdout/err mereka ke slurm_logs/
. Untuk mengakhiri pelatihan:
kill $(cat saves/path/pids)
Untuk melanjutkan pelatihan, jalankan launcher.py
lagi, tetapi hilangkan --init
(ini akan menimpa jaringan lama Anda).
Pelatihan pada Windows tidak didukung.
Berkat microsoftv sekarang ada video instruksional juga!
Datanglah ke Perselisihan!
Saya telah melakukan streaming latihan di http://twitch.tv/x_pilot. Ada juga beberapa rekaman di saluran youtube saya.
Terima kasih banyak kepada altf4 yang telah membantu saya memulai, dan kepada spxtr untuk pengamat memori python. Beberapa kode untuk interaksi lumba-lumba telah dipinjam dari kedua proyek (kebanyakan yang terakhir sekarang saya telah beralih ke python murni).