深圳元象信息科技有限公司重磅推出中国最大的Mixture of Experts (MoE) 开源大模型——XVERSE-MoE-A36B,其255B总参数和36B激活参数使其性能媲美甚至超越许多参数规模更大的模型。该模型在训练时间和推理性能上均实现了显着提升,大幅降低了每token成本,为AI应用的低成本部署提供了强力支持。这一突破标志着中国在大型语言模型领域取得重大进展,将国产开源技术推向国际领先地位。 XVERSE-MoE-A36B模型已全面开源,并免费供商业使用,为中小企业、研究者和开发者提供了宝贵的资源。
XVERSE-MoE-A36B模型拥有255B的总参数和36B的激活参数,其性能可与超过100B参数的大模型相媲美,实现了跨级的性能跃升。该模型在训练时间上减少了30%,推理性能提升了100%,大幅降低了每token的成本,使得AI应用的低成本部署成为可能。元象XVERSE的高性能全家桶系列模型已全面开源,无条件免费供商业使用,这为众多中小企业、研究者和开发者提供了更多的选择机会。 MoE架构通过组合多个细分领域的专家模型,打破了传统扩展定律的局限,在扩大模型规模的同时,保持了模型性能的最大化,并降低了训练和推理的计算成本。在多个权威评测中,元象MoE的效果显着超越了多个同类模型,包括国内千亿MoE模型Skywork-MoE、传统MoE霸主Mixtral-8x22B,以及3140亿参数的MoE开源模型Grok-1-A86B等。
元象XVERSE的高性能全家桶系列模型已全面开源,无条件免费供商业使用,这为众多中小企业、研究者和开发者提供了更多的选择机会。 MoE架构通过组合多个细分领域的专家模型,打破了传统扩展定律的局限,在扩大模型规模的同时,保持了模型性能的最大化,并降低了训练和推理的计算成本。
在多个权威评测中,元象MoE的效果显着超越了多个同类模型,包括国内千亿MoE模型Skywork-MoE、传统MoE霸主Mixtral-8x22B,以及3140亿参数的MoE开源模型Grok-1-A86B等。
免费下载大模型
Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A36B
魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A36B
Github:https://github.com/xverse-ai/XVERSE-MoE-A36B
官网:chat.xverse.cn
XVERSE-MoE-A36B的开源和免费商业使用,降低了AI应用的门槛,将极大推动中国人工智能技术的发展和应用。 其卓越的性能和便捷的访问方式,无疑为国内外AI开发者和研究者提供了强大的工具和资源。 期待未来看到更多基于此模型的创新应用。