Gemma คือกลุ่มโมเดลภาษาขนาดใหญ่ (LLM) แบบ open-weights โดย Google DeepMind ซึ่งอิงจากการวิจัยและเทคโนโลยีของ Gemini
พื้นที่เก็บข้อมูลนี้มีการใช้งานการอนุมานและตัวอย่างโดยยึดตาม Flax และ JAX
รายงานทางเทคนิคของ Gemma (v1, v2) ให้รายละเอียดเกี่ยวกับความสามารถของโมเดล
สำหรับบทช่วยสอน การใช้งานอ้างอิงในเฟรมเวิร์ก ML อื่นๆ และอื่นๆ โปรดไปที่ https://ai.google.dev/gemma
หากต้องการติดตั้ง Gemma คุณต้องใช้ Python 3.10 ขึ้นไป
ติดตั้ง JAX สำหรับ CPU, GPU หรือ TPU ปฏิบัติตามคำแนะนำที่เว็บไซต์ JAX
วิ่ง
python -m venv gemma-demo . gemma-demo/bin/activate pip install git+https://github.com/google-deepmind/gemma.git
จุดตรวจโมเดลมีให้ผ่าน Kaggle ที่ http://kaggle.com/models/google/gemma เลือกรูปแบบโมเดล Flax รูปแบบใดรูปแบบหนึ่ง คลิกปุ่ม ⤓ เพื่อดาวน์โหลดไฟล์เก็บถาวรโมเดล จากนั้นแยกเนื้อหาไปยังไดเร็กทอรีในเครื่อง ไฟล์เก็บถาวรมีทั้งน้ำหนักของโมเดลและโทเค็นไนเซอร์ เช่น รูปแบบ 2b Flax ประกอบด้วย:
2b/ # Directory containing model weights tokenizer.model # Tokenizer
หากต้องการรันการทดสอบหน่วย ให้ติดตั้งการขึ้นต่อกัน [test]
ที่เป็นทางเลือก (เช่น การใช้ pip install -e .[test]
จากรูทของแผนผังต้นทาง) จากนั้น:
pytest .
โปรดทราบว่าการทดสอบใน sampler_test.py
จะถูกข้ามไปโดยค่าเริ่มต้น เนื่องจากไม่มีการแจกจ่ายโทเค็นกับแหล่งที่มาของ Gemma หากต้องการรันการทดสอบเหล่านี้ ให้ดาวน์โหลดโทเค็นไนเซอร์ตามคำแนะนำด้านบน และอัปเดตค่าคงที่ _VOCAB
ใน sampler_test.py
ด้วยพาธไปยัง tokenizer.model
หากต้องการเรียกใช้สคริปต์การสุ่มตัวอย่าง ให้ส่งเส้นทางไปยังไดเร็กทอรี Weights และ Tokenizer:
python examples/sampling.py --path_checkpoint=/path/to/archive/contents/2b/ --path_tokenizer=/path/to/archive/contents/tokenizer.model
นอกจากนี้ยังมีบทแนะนำเกี่ยวกับสมุดบันทึกของ Colab อีกหลายรายการ:
colabs/sampling_tutorial.ipynb
มีสมุดบันทึก Colab พร้อมตัวอย่างการสุ่มตัวอย่าง
colabs/fine_tuning_tutorial.ipynb
มี Colab พร้อมบทแนะนำพื้นฐานเกี่ยวกับวิธีปรับแต่ง Gemma สำหรับงานต่างๆ เช่น การแปลภาษาอังกฤษเป็นภาษาฝรั่งเศส
colabs/gsm8k_eval.ipynb
คือ Colab ที่มีการใช้งาน eval อ้างอิง GSM8K
ในการเรียกใช้สมุดบันทึกเหล่านี้ คุณจะต้องดาวน์โหลดสำเนาน้ำหนักและโทเค็นไนเซอร์ในเครื่อง (ดูด้านบน) และอัปเดตตัวแปร ckpt_path
และ vocab_path
ด้วยเส้นทางที่เกี่ยวข้อง
Gemma สามารถทำงานบน CPU, GPU และ TPU สำหรับ GPU เราขอแนะนำ RAM 8GB+ บน GPU สำหรับจุดตรวจสอบ 2B และ RAM 24GB+ บน GPU สำหรับจุดตรวจสอบ 7B
เราเปิดรับรายงานข้อผิดพลาด คำขอดึงข้อมูล (PR) และการสนับสนุนอื่นๆ โปรดดู CONTRIBUTING.md สำหรับรายละเอียดเกี่ยวกับการประชาสัมพันธ์
ลิขสิทธิ์ 2024 DeepMind Technologies Limited
รหัสนี้ได้รับอนุญาตภายใต้ Apache License เวอร์ชัน 2.0 ("ใบอนุญาต"); คุณไม่สามารถใช้ไฟล์นี้ได้เว้นแต่จะเป็นไปตามใบอนุญาต คุณสามารถขอรับสำเนาใบอนุญาตได้ที่ http://www.apache.org/licenses/LICENSE-2.0
เว้นแต่กฎหมายที่ใช้บังคับกำหนดหรือตกลงเป็นลายลักษณ์อักษร ซอฟต์แวร์ที่เผยแพร่ภายใต้ใบอนุญาตนี้จะถูกแจกจ่ายตามสภาพที่เป็นอยู่ โดยไม่มีการรับประกันหรือเงื่อนไขใดๆ ไม่ว่าจะโดยชัดแจ้งหรือโดยนัย ดูใบอนุญาตสำหรับภาษาเฉพาะที่ควบคุมการอนุญาตและข้อจำกัดภายใต้ใบอนุญาต
นี่ไม่ใช่ผลิตภัณฑ์อย่างเป็นทางการของ Google