Downcodes小編報導:Google在東京Gemma開發者日發布了日文版Gemma AI模型。這款僅有20億參數的小巧模型,性能卻能與GPT-3.5媲美,可在行動裝置上運作。它不僅在日語處理上表現出色,而且克服了小型模型在多語言微調中常見的「災難性遺忘」問題,保持了其在英語上的能力。谷歌也慷慨地開放了模型權重、訓練材料和範例,並設立了高達15萬美元獎金的比賽,鼓勵開發者將Gemma模型適配到更多本地語言,促進全球溝通。
這次發布的Gemma 模型,在日語處理上表現出色,同時也保持了其在英語上的能力。對於小型模型來說,這一點特別重要,因為在進行新語言的微調時,它們可能會面臨「災難性遺忘」 的問題,即新學到的知識會覆蓋先前學到的資訊。但是Gemma 成功克服了這個難題,展現了強大的語言處理能力。
更值得一提的是,Google也透過Kaggle 和Hugging Face 等平台,立即發布了模型的權重、訓練材料和範例,幫助開發者更快入門。這意味著,開發者可以輕鬆使用這個模型來進行本地運算,尤其是在邊緣運算應用中,將會帶來更多的可能性。
為了鼓勵更多的國際開發者,Google還推出了名為「解鎖全球溝通與Gemma」 的比賽,獎金高達15萬美元。這個計劃旨在幫助開發者將Gemma 模型適配到本地語言。目前,已經有阿拉伯語、越南語和祖魯語的計畫正在進行中。在印度,開發者們正在進行「Navarasa」 項目,計劃將模型優化為支援12種印度語言,而另一個團隊則在研究透過微調支援韓語方言。
Gemma2系列模型的推出,旨在以更少的參數實現更高的性能。與Meta 等其他公司的類似模型相比,Gemma2的表現同樣優秀,甚至在某些情況下,2億參數的Gemma2還能夠超越一些擁有700億參數的模型,例如LLaMA-2。開發者和研究人員可以透過Hugging Face、GoogleAI 工作室和GoogleColab 的免費計畫取得Gemma-2-2B 模型及其他Gemma 模型,此外,還可以在Vertex AI 模型花園中找到它們。
官網入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face:https://huggingface.co/google
GoogleColab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
總而言之,Gemma模型的發佈為開發者提供了強大的工具,也為人工智慧在多語言應用上的發展帶來了新的可能。其輕量化設計和開放的資源共享模式,將促進人工智慧技術的普及和應用,值得期待其在未來的發展和應用。