รายงานตัวแก้ไข Downcodes: Google เปิดตัวโมเดล Gemma AI เวอร์ชันภาษาญี่ปุ่นที่งาน Gemma Developer Day ในโตเกียว รุ่นกะทัดรัดนี้มีพารามิเตอร์เพียง 2 พันล้านพารามิเตอร์ มีประสิทธิภาพเทียบเท่ากับ GPT-3.5 และสามารถทำงานบนอุปกรณ์เคลื่อนที่ได้ ไม่เพียงแต่ทำงานได้ดีในภาษาญี่ปุ่นเท่านั้น แต่ยังเอาชนะปัญหา "การลืมแบบหายนะ" ที่พบบ่อยในรุ่นขนาดเล็กที่มีการปรับแต่งแบบละเอียดหลายภาษา โดยยังคงรักษาความสามารถด้านภาษาอังกฤษไว้ได้ Google ยังเปิดกว้างสำหรับน้ำหนักโมเดล เอกสารการฝึกอบรม และตัวอย่าง ตลอดจนจัดการแข่งขันพร้อมเงินรางวัลสูงถึง 150,000 ดอลลาร์สหรัฐฯ เพื่อสนับสนุนให้นักพัฒนาปรับโมเดล Gemma ให้เข้ากับภาษาท้องถิ่นมากขึ้น และส่งเสริมการสื่อสารระดับโลก
โมเดล Gemma ที่เปิดตัวในครั้งนี้ทำงานได้ดีในการประมวลผลภาษาญี่ปุ่นในขณะที่ยังคงความสามารถในภาษาอังกฤษไว้ สิ่งนี้สำคัญอย่างยิ่งสำหรับโมเดลขนาดเล็ก เนื่องจากเมื่อปรับแต่งภาษาใหม่อย่างละเอียด พวกเขาอาจประสบปัญหา "การลืมแบบหายนะ" ซึ่งความรู้ที่เรียนรู้ใหม่จะเขียนทับข้อมูลที่เรียนรู้ก่อนหน้านี้ แต่เจมม่าสามารถเอาชนะปัญหานี้ได้สำเร็จและแสดงให้เห็นถึงความสามารถในการประมวลผลภาษาอันทรงพลัง
สิ่งที่น่ากล่าวถึงกว่านั้นคือ Google ยังเผยแพร่น้ำหนัก เอกสารการฝึกอบรม และตัวอย่างของโมเดลทันทีผ่านแพลตฟอร์ม เช่น Kaggle และ Hugging Face เพื่อช่วยให้นักพัฒนาเริ่มต้นได้เร็วขึ้น ซึ่งหมายความว่านักพัฒนาสามารถใช้โมเดลนี้สำหรับการประมวลผลในเครื่องได้อย่างง่ายดาย ซึ่งจะนำมาซึ่งความเป็นไปได้มากขึ้น โดยเฉพาะอย่างยิ่งในแอปพลิเคชันการประมวลผลแบบ Edge
เพื่อสนับสนุนนักพัฒนาจากต่างประเทศมากขึ้น Google ยังได้จัดการแข่งขันที่เรียกว่า "ปลดล็อกการสื่อสารระดับโลกกับเจมม่า" โดยมีเงินรางวัลสูงถึง 150,000 เหรียญสหรัฐ โปรแกรมนี้ออกแบบมาเพื่อช่วยนักพัฒนาในการปรับโมเดล Gemma ให้เป็นภาษาท้องถิ่น ปัจจุบันมีโครงการที่กำลังดำเนินการอยู่ในภาษาอาหรับ เวียดนาม และซูลู ในอินเดีย นักพัฒนากำลังทำงานในโครงการ “Navarasa” ซึ่งวางแผนที่จะปรับโมเดลให้เหมาะสมเพื่อรองรับภาษาอินเดีย 12 ภาษา ในขณะที่อีกทีมหนึ่งกำลังทำงานเพื่อปรับแต่งการรองรับภาษาเกาหลีอย่างละเอียด
การเปิดตัวโมเดลซีรีส์ Gemma2 มีเป้าหมายเพื่อให้ได้ประสิทธิภาพที่สูงขึ้นโดยใช้พารามิเตอร์น้อยลง เมื่อเปรียบเทียบกับโมเดลที่คล้ายกันจากบริษัทอื่นๆ เช่น Meta แล้ว Gemma2 ก็ทำงานได้ดีพอๆ กัน ในบางกรณี Gemma2 ที่มีพารามิเตอร์ 200 ล้านพารามิเตอร์สามารถแซงหน้าบางรุ่นที่มีพารามิเตอร์ 70 พันล้านอย่างเช่น LLaMA-2 ได้ด้วยซ้ำ นักพัฒนาและนักวิจัยสามารถรับโมเดล Gemma-2-2B และโมเดล Gemma อื่นๆ ผ่านแผนบริการฟรีของ Hugging Face, Google AI Studio และ Google Colab และยังสามารถพบได้ใน Vertex AI Model Garden อีกด้วย
ทางเข้าเว็บไซต์อย่างเป็นทางการ: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
หน้ากอด: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
โดยรวมแล้ว การเปิดตัวโมเดล Gemma ช่วยให้นักพัฒนามีเครื่องมืออันทรงพลัง และนำความเป็นไปได้ใหม่ๆ ในการพัฒนาปัญญาประดิษฐ์ในแอปพลิเคชันหลายภาษา การออกแบบที่มีน้ำหนักเบาและรูปแบบการแบ่งปันทรัพยากรแบบเปิดจะส่งเสริมความนิยมและการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ และคุ้มค่าที่จะรอคอยการพัฒนาและการประยุกต์ใช้ในอนาคต