上海人工智能实验室近日宣布其自主研发的书生大模型迎来重大升级,推出全新版本书生・浦语3.0(InternLM3)。该版本在数据使用效率和模型性能方面取得显着突破,以更低的成本实现了更高的性能,并首次融合了常规对话与深度思考能力,显着提升了模型在真实应用场景中的表现。此次升级不仅在技术上取得突破,更体现了中国在人工智能领域持续创新的决心和实力。
上海人工智能实验室宣布其书生大模型迎来了重要版本升级,推出了书生・浦语3.0(InternLM3)。据实验室介绍,新的版本通过精炼的数据框架,显着提升了数据使用效率,从而实现了思维密度的提升。
此次升级的InternLM3-8B-Instruct 模型仅使用4T 的数据进行训练,官方表示其综合性能超过了同等规模的开源模型,且训练成本节约了超过75%。值得注意的是,这一版本首次在通用模型中实现了常规对话与深度思考能力的融合,能够更好地应对多样化的真实使用场景。
在模型的评测方面,研究团队基于司南OpenCompass 开源评测框架,采用了一种统一可复现的方法进行评测。评测内容涉及CMMLU、GPQA 等十多个权威评测集,涵盖推理、数学、编程、指令跟随、长文本生成、对话及综合表现等多个维度。评测结果显示,书生・浦语3.0在大多数评测集中的得分领先,综合性能与GPT-4o-mini 非常接近。
上海AI 实验室还表示,这一新版本的模型成为了开源社区中首个支持浏览器使用的通用对话模型,能够支持20步以上的网页跳转,从而实现深度信息的挖掘。
体验页面:https://internlm-chat.intern-ai.org.cn。
划重点:
书生・浦语3.0模型通过4T 数据训练,综合性能超过同等规模的开源模型,节约超75% 训练成本。
模型在多个权威评测集上得分领先,思维与对话能力的融合大幅提升。
新模型支持浏览器使用,可进行深度信息挖掘,成为开源社区的亮点之一。
总而言之,书生·浦语3.0的升级展现了中国在大型语言模型领域的显着进步,其高效的训练方法和强大的性能有望推动人工智能技术在更多领域的应用,值得期待其未来的发展。