Downcodes小编报道:谷歌在东京Gemma开发者日上发布了日语版Gemma AI模型。这款仅有20亿参数的小巧模型,性能却能与GPT-3.5媲美,可在移动设备上运行。它不仅在日语处理上表现出色,而且克服了小型模型在多语言微调中常见的“灾难性遗忘”问题,保持了其在英语上的能力。谷歌还慷慨地开放了模型权重、训练材料和示例,并设立了高达15万美元奖金的比赛,鼓励开发者将Gemma模型适配到更多本地语言,促进全球沟通。
这次发布的 Gemma 模型,在日语处理上表现出色,同时也保持了其在英语上的能力。对于小型模型来说,这一点特别重要,因为在进行新语言的微调时,它们可能会面临 “灾难性遗忘” 的问题,即新学到的知识会覆盖之前学到的信息。但是 Gemma 成功克服了这个难题,展现了强大的语言处理能力。
更值得一提的是,谷歌还通过 Kaggle 和 Hugging Face 等平台,立即发布了模型的权重、训练材料和示例,帮助开发者更快入门。这意味着,开发者们可以轻松使用这个模型来进行本地计算,尤其是在边缘计算应用中,将会带来更多的可能性。
为了鼓励更多的国际开发者,谷歌还推出了一项名为 “解锁全球沟通与 Gemma” 的比赛,奖金高达15万美元。这个计划旨在帮助开发者将 Gemma 模型适配到本地语言。目前,已经有阿拉伯语、越南语和祖鲁语的项目在进行中。在印度,开发者们正在进行 “Navarasa” 项目,计划将模型优化为支持12种印度语言,而另一个团队则在研究通过微调支持韩语方言。
Gemma2系列模型的推出,旨在用更少的参数实现更高的性能。与 Meta 等其他公司的类似模型相比,Gemma2的表现同样优秀,甚至在某些情况下,2亿参数的 Gemma2还能够超越一些拥有700亿参数的模型,比如 LLaMA-2。开发者和研究人员可以通过 Hugging Face、谷歌 AI 工作室和谷歌 Colab 的免费计划获取 Gemma-2-2B 模型及其他 Gemma 模型,此外,还可以在 Vertex AI 模型花园中找到它们。
官网入口:https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face:https://huggingface.co/google
谷歌 Colab:https://ai.google.dev/gemma/docs/keras_inference?hl=de
总而言之,Gemma模型的发布为开发者提供了强大的工具,也为人工智能在多语言应用上的发展带来了新的可能。其轻量化设计和开放的资源共享模式,将促进人工智能技术的普及和应用,值得期待其在未来的发展和应用。