พื้นที่เก็บข้อมูลนี้มีโค้ดตัวอย่าง JAX สำหรับการโหลดและเรียกใช้โมเดล Open-weights Grok-1
ตรวจสอบให้แน่ใจว่าได้ดาวน์โหลดจุดตรวจสอบและวางไดเร็กทอรี ckpt-0
ไว้ใน checkpoints
- โปรดดูการดาวน์โหลดตุ้มน้ำหนัก
จากนั้นวิ่ง
pip ติดตั้ง -r ข้อกำหนด.txt หลาม run.py
เพื่อทดสอบโค้ด
สคริปต์จะโหลดจุดตรวจสอบและตัวอย่างจากแบบจำลองบนอินพุตทดสอบ
เนื่องจากโมเดลมีขนาดใหญ่ (พารามิเตอร์ 314B) เครื่องที่มีหน่วยความจำ GPU เพียงพอจึงจำเป็นต้องทดสอบโมเดลด้วยโค้ดตัวอย่าง การใช้งานเลเยอร์ MoE ในที่เก็บนี้ไม่มีประสิทธิภาพ การนำไปใช้งานได้รับเลือกเพื่อหลีกเลี่ยงความจำเป็นในการใช้เคอร์เนลแบบกำหนดเองเพื่อตรวจสอบความถูกต้องของโมเดล
ปัจจุบัน Grok-1 ได้รับการออกแบบโดยมีข้อกำหนดดังต่อไปนี้:
พารามิเตอร์: 314B
สถาปัตยกรรม: การผสมผสานของผู้เชี่ยวชาญ 8 คน (MoE)
การใช้ผู้เชี่ยวชาญ: ใช้ผู้เชี่ยวชาญ 2 คนต่อโทเค็น
ชั้น: 64
Attention Heads: 48 สำหรับข้อความค้นหา, 8 สำหรับคีย์/ค่า
ขนาดการฝัง: 6,144
Tokenization: Sentence Piece tokenizer พร้อมโทเค็น 131,072 รายการ
คุณสมบัติเพิ่มเติม:
การฝังแบบหมุน (RoPE)
รองรับการเปิดใช้งานการแบ่งส่วนและการหาปริมาณ 8 บิต
ความยาวลำดับสูงสุด (บริบท): 8,192 โทเค็น
คุณสามารถดาวน์โหลดตุ้มน้ำหนักได้โดยใช้ไคลเอนต์ฝนตกหนักและลิงก์แม่เหล็กนี้:
magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce
หรือใช้ HuggingFace โดยตรง? ฮับ:
git clone https://github.com/xai-org/grok-1.git && cd grok-1 pip install huggingface_hub[hf_transfer] huggingface-cli download xai-org/grok-1 --repo-type model --include ckpt-0/* --local-dir checkpoints --local-dir-use-symlinks False
รหัสและน้ำหนัก Grok-1 ที่เกี่ยวข้องในรุ่นนี้ได้รับอนุญาตภายใต้ใบอนุญาต Apache 2.0 ใบอนุญาตนี้ใช้กับไฟล์ต้นฉบับในพื้นที่เก็บข้อมูลนี้และน้ำหนักโมเดลของ Grok-1 เท่านั้น