Downcodes小编报道:Google在东京的Gemma开发者日上发布了重磅消息——日语版Gemma模型正式上线!这款仅拥有20亿参数的AI模型,却能流畅地处理日语和英语,性能可与GPT-3.5相媲美,成功克服了小型模型在学习新语言时容易出现的“灾难性遗忘”问题,实现了双语能力的完美平衡。这一突破性的进展,为AI领域带来了新的希望。
Google在东京举办的Gemma开发者日上发布重磅消息:全新日语版Gemma模型正式亮相。这款小巧精悍的AI模型以仅20亿参数的规模,却能同时驾驭日语和英语,展现出与GPT-3.5相媲美的性能。
这一技术突破尤为令人瞩目。在AI领域,小型模型在学习新语言时常常面临灾难性遗忘的挑战——即在获取新知识的过程中丢失先前掌握的能力。而日语版Gemma却成功克服了这一难题,实现了双语能力的完美平衡。
为推动全球开发者社区的参与,Google不仅通过Kaggle和Hugging Face平台开放了模型权重,还提供了完整的训练资料和示例代码。得益于其精简的设计,这款模型甚至可以在移动设备上本地运行,为边缘计算应用开辟了新的可能。
Google还启动了一项金额高达15万美元的Gemma全球交流解锁竞赛,鼓励开发者将Gemma适配到更多语言。目前,阿拉伯语、越南语和祖鲁语的适配项目已经启动。与此同时,印度的Navarasa项目正致力于支持12种印度语言,另有团队正在探索韩语方言的优化。
作为Google在7月底开源的Gemma2系列的最新成员,这款模型秉承了以小博大的设计理念。与Meta等公司推出的同类产品一样,它注重效率与本地化处理能力。值得一提的是,这款20亿参数的模型在某些任务上的表现甚至超越了拥有700亿参数的LLaMA-2。
开发者和研究人员可以通过Hugging Face、Google AI Studio和Google Colab等多个平台免费访问Gemma-2-2B及其他Gemma系列模型,同时这些模型也已登陆Vertex AI模型市场。这一系列举措,将为全球AI开发者带来更多创新可能。
Google此次开放日语版Gemma模型,并积极推动其全球化应用,展现了其在AI领域持续创新的决心,也为全球开发者提供了更多探索和实践的机会。期待Gemma模型在未来为更多语言和应用场景带来便利。相信这款小巧而强大的模型将会在AI领域发挥更大的作用。