IBM 宣布推出其新一代开源大语言模型Granite3.1,旨在引领企业级AI 领域。 Granite3.1 拥有诸多亮点,包括扩展至128K 的上下文长度、高效的嵌入模型、内置的幻觉检测功能以及显着提升的整体性能。据IBM 声称,其Granite8B Instruct 模型在同等规模的开源模型中表现最佳,超越了Meta 的Llama3.1、Qwen2.5 和谷歌的Gemma2 等竞争对手。这一新模型的发布,紧随10 月份Granite3.0 的推出,体现了IBM 在生成式AI 领域的快速迭代和持续投入,其相关业务收入已达20 亿美元。
IBM 正式发布了其新一代开源大语言模型Granite3.1,力图在企业级AI 领域占据领先地位。这一系列模型具备128K 的扩展上下文长度、嵌入模型、内置的幻觉检测功能以及性能的显着提升。
IBM 声称,Granite8B Instruct 模型在相同规模的开源竞争对手中表现最佳,包括Meta 的Llama3.1、Qwen2.5和谷歌的Gemma2。
Granite3.1模型的发布是在IBM 快速迭代Granite 系列的背景下进行的,早在10月份就推出了Granite3.0。 IBM 透露,其与生成AI 相关的业务收入已达到20亿美元。新版本的核心理念是将更多功能集成到更小的模型中,以便企业用户能够更轻松地运行和更具成本效益。
IBM 研究部副总裁大卫・考克斯(David Cox)表示,Granite 模型广泛应用于IBM 内部产品、咨询服务以及客户服务,同时也以开源形式发布,因此需要在各个方面都达到高水平。模型的性能评估不仅仅依赖于速度,还包括效率,帮助用户在获取结果时节省时间。
在上下文长度方面,Granite3.1的提升尤为明显,从初版的4K 扩展至128K,这对企业AI 用户尤为重要,尤其是在检索增强生成(RAG)和智能代理AI 方面。延长的上下文长度允许模型处理更长的文档、日志和对话,使其更好地理解和响应复杂查询。
IBM 还推出了一系列嵌入模型,以加快数据转换为向量的过程。其中Granite-Embedding-30M-English 模型的查询时间为0.16秒,速度优于竞争对手的产品。为了实现Granite3.1的性能提升,IBM 在多阶段训练流程和高质量训练数据的使用上进行了创新。
在幻觉检测方面,Granite3.1模型将幻觉保护集成到了模型内部,能够自我检测并减少错误输出。这种内置检测功能优化了整体效率,减少了推理调用次数。
当前,Granite3.1模型已向企业用户免费开放,并通过IBM 的Watsonx 企业AI 服务提供。未来,IBM 计划保持快速更新的节奏,Granite3.2将于2025年初推出多模态功能。
官方博客:https://www.ibm.com/new/announcements/ibm-granite-3-1-powerful-performance-long-context-and-more
划重点:
IBM 推出Granite3.1模型,旨在开源大语言模型市场占据领先地位。
新模型支持128K 上下文长度,显着提升了处理能力与效率。
幻觉检测功能被集成到模型中,优化了整体性能和准确性。
总而言之,Granite3.1 的发布标志着IBM 在开源大语言模型领域的又一重大进展,其强大的性能和丰富的功能将为企业用户带来更便捷、高效的AI 体验。 未来版本的迭代值得期待。