Downcodes小編報告:Google在東京的Gemma開發者日上發布了重磅消息-日文版Gemma模型正式上線!這款僅擁有20億參數的AI模型,卻能流暢地處理日語和英語,性能可與GPT-3.5相媲美,成功克服了小型模型在學習新語言時容易出現的“災難性遺忘”問題,實現了雙語能力的完美平衡。這項突破性的進展,為AI領域帶來了新的希望。
Google在東京舉辦的Gemma開發者日上發布重磅消息:全新日文版Gemma模型正式亮相。這款小巧精悍的AI模型以僅20億參數的規模,卻能同時駕馭日語和英語,展現出與GPT-3.5相媲美的性能。
這項技術突破尤為令人矚目。在AI領域,小型模型在學習新語言時常常面臨災難性遺忘的挑戰——即在獲取新知識的過程中失去先前掌握的能力。而日文版Gemma卻成功克服了這個難題,實現了雙語能力的完美平衡。
為推動全球開發者社群的參與,Google不僅透過Kaggle和Hugging Face平台開放了模型權重,還提供了完整的訓練資料和範例程式碼。由於其精簡的設計,這款模型甚至可以在行動裝置上本地運行,為邊緣運算應用開闢了新的可能。
Google也啟動了一項金額高達15萬美元的Gemma全球交流解鎖競賽,鼓勵開發者將Gemma適合到更多語言。目前,阿拉伯語、越南語和祖魯語的適配計畫已經啟動。同時,印度的Navarasa計畫正致力於支援12種印度語言,另有團隊正在探索韓語方言的最佳化。
作為Google在7月底開源的Gemma2系列的最新成員,這款模型秉承了以小博大的設計理念。與Meta等公司推出的同類產品一樣,它注重效率與在地化處理能力。值得一提的是,這款20億參數的模型在某些任務上的表現甚至超越了擁有700億參數的LLaMA-2。
開發者和研究人員可以透過Hugging Face、Google AI Studio和Google Colab等多個平台免費存取Gemma-2-2B及其他Gemma系列模型,同時這些模型也已登陸Vertex AI模型市場。這一系列舉措,將為全球AI開發者帶來更多創新可能。
Google此次開放日文版Gemma模型,並積極推動其全球化應用,展現了其在AI領域持續創新的決心,也為全球開發者提供了更多探索和實踐的機會。期待Gemma模型在未來為更多語言和應用場景帶來便利。相信這款小巧而強大的模型將會在AI領域發揮更大的作用。