Google在東京舉辦的Gemma開發者日上發布了全新日語版Gemma模型,這款僅20億參數的AI模型展現出與GPT-3.5相媲美的性能。這一技術突破克服了小型模型在學習新語言時的“災難性遺忘”難題,實現了日語和英語雙語能力的完美平衡。
這一技術突破尤為令人矚目。在AI領域,小型模型在學習新語言時常常面臨"災難性遺忘"的挑戰——即在獲取新知識的過程中丟失先前掌握的能力。而日語版Gemma卻成功克服了這一難題,實現了雙語能力的完美平衡。
為推動全球開發者社區的參與,Google不僅通過Kaggle和Hugging Face平台開放了模型權重,還提供了完整的訓練資料和示例代碼。得益於其精簡的設計,這款模型甚至可以在移動設備上本地運行,為邊緣計算應用開闢了新的可能。
Google還啟動了一項金額高達15萬美元的"Gemma全球交流解鎖"競賽,鼓勵開發者將Gemma適配到更多語言。目前,阿拉伯語、越南語和祖魯語的適配項目已經啟動。與此同時,印度的"Navarasa"項目正致力於支持12種印度語言,另有團隊正在探索韓語方言的優化。
作為Google在7月底開源的Gemma2系列的最新成員,這款模型秉承了"以小博大"的設計理念。與Meta等公司推出的同類產品一樣,它注重效率與本地化處理能力。值得一提的是,這款20億參數的模型在某些任務上的表現甚至超越了擁有700億參數的LLaMA-2。
開發者和研究人員可以通過Hugging Face、Google AI Studio和Google Colab等多個平台免費訪問Gemma-2-2B及其他Gemma系列模型,同時這些模型也已登陸Vertex AI模型市場。這一系列舉措,將為全球AI開發者帶來更多創新可能。
Google的這一發布不僅展示了其在AI技術上的領先地位,也為全球開發者提供了更多創新的可能性。