RecSim เป็นแพลตฟอร์มที่กำหนดค่าได้สำหรับการสร้างสภาพแวดล้อมการจำลองสำหรับระบบผู้แนะนำ (RS) ที่รองรับ การโต้ตอบตามลำดับ กับผู้ใช้ RecSim ช่วยให้สามารถสร้างสภาพแวดล้อมใหม่ที่สะท้อนถึงลักษณะเฉพาะของพฤติกรรมผู้ใช้และโครงสร้างรายการในระดับนามธรรมที่เหมาะสมอย่างยิ่งในการผลักดันขีดจำกัดของการเรียนรู้แบบเสริมกำลัง (RL) และเทคนิค RS ในปัจจุบันในปัญหาการแนะนำเชิงโต้ตอบตามลำดับ สามารถกำหนดค่าสภาพแวดล้อมได้อย่างง่ายดายซึ่งแตกต่างกันไปตามสมมติฐานเกี่ยวกับ: การกำหนดค่าตามความชอบของผู้ใช้และความคุ้นเคยของรายการ สถานะแฝงของผู้ใช้และพลวัตของมัน และรูปแบบการเลือกและพฤติกรรมการตอบสนองของผู้ใช้อื่นๆ เราสรุปวิธีที่ RecSim มอบคุณค่าให้กับนักวิจัยและผู้ปฏิบัติงานของ RL และ RS และวิธีที่ RecSim สามารถทำหน้าที่เป็นเครื่องมือสำหรับการทำงานร่วมกันทางวิชาการและอุตสาหกรรม สำหรับคำอธิบายโดยละเอียดของสถาปัตยกรรม RecSim โปรดอ่าน Ie et al โปรดอ้างอิงบทความนี้หากคุณใช้โค้ดจากแหล่งเก็บข้อมูลนี้ในงานของคุณ
@article{ie2019recsim,
title={RecSim: A Configurable Simulation Platform for Recommender Systems},
author={Eugene Ie and Chih-wei Hsu and Martin Mladenov and Vihan Jain and Sanmit Narvekar and Jing Wang and Rui Wu and Craig Boutilier},
year={2019},
eprint={1909.04847},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
นี่ไม่ใช่ผลิตภัณฑ์ของ Google ที่ได้รับการสนับสนุนอย่างเป็นทางการ
ขอแนะนำให้ติดตั้ง RecSim โดยใช้ (https://pypi.org/project/recsim/):
pip install recsim
อย่างไรก็ตาม Dopamine เวอร์ชันล่าสุดไม่อยู่ใน PyPI ณ เดือนธันวาคม 2019 เราต้องการติดตั้งเวอร์ชันล่าสุดจากพื้นที่เก็บข้อมูลของ Dopamine ดังต่อไปนี้ก่อนที่เราจะติดตั้ง RecSim โปรดทราบว่า Dopamine ต้องการ Tensorflow 1.15.0 ซึ่งเป็นรุ่น 1.x สุดท้าย รวมถึงรองรับ GPU สำหรับ Ubuntu และ Windows
pip install git+https://github.com/google/dopamine.git
ต่อไปนี้คือคำสั่งตัวอย่างบางส่วนที่คุณสามารถใช้เพื่อทดสอบการติดตั้ง:
git clone https://github.com/google-research/recsim
cd recsim/recsim
python main.py --logtostderr
--base_dir="/tmp/recsim/interest_exploration_full_slate_q"
--agent_name=full_slate_q
--environment_name=interest_exploration
--episode_log_file='episode_logs.tfrecord'
--gin_bindings=simulator.runner_lib.Runner.max_steps_per_episode=100
--gin_bindings=simulator.runner_lib.TrainRunner.num_iterations=10
--gin_bindings=simulator.runner_lib.TrainRunner.max_training_steps=100
--gin_bindings=simulator.runner_lib.EvalRunner.max_eval_episodes=5
จากนั้นคุณสามารถเริ่มเทนเซอร์บอร์ดและดูผลลัพธ์ได้
tensorboard --logdir=/tmp/recsim/interest_exploration_full_slate_q/ --port=2222
คุณยังสามารถค้นหาบันทึกจำลองได้ใน /tmp/recsim/episode_logs.tfrecord
หากต้องการเริ่มต้น โปรดดูบทแนะนำ Colab ของเรา ใน RecSim: ภาพรวม เราจะให้ภาพรวมโดยย่อเกี่ยวกับ RecSim จากนั้นเราจะพูดถึงองค์ประกอบที่สามารถกำหนดค่าได้แต่ละรายการ: สภาพแวดล้อม และ ตัวแทนผู้แนะนำ
โปรดดูเอกสารไวท์เปเปอร์สำหรับการออกแบบระดับสูง