红帽公司发布了RHEL AI 1.3版本,此版本显着增强了企业级Linux人工智能平台的功能。该更新的核心在于对IBM Granite大型语言模型(LLM)的支持,以及对Intel Gaudi3加速器的预览支持,这将极大提升企业部署和应用AI的能力。 新版本旨在简化AI模型的部署和集成,降低成本,并提供在混合云环境中灵活部署的可能性,为服务合作伙伴和系统集成商创造更多机遇。
红帽公司近日发布了其企业级Linux 人工智能平台RHEL AI 的最新版本1.3,该版本新增了对IBM Granite 大型语言模型(LLM)的支持,并预览了对Intel Gaudi3加速器的支持。这一更新为红帽的服务合作伙伴和系统集成商带来了更多的机会,帮助企业更有效地探索和整合人工智能应用。
红帽AI 业务部门副总裁兼总经理乔・费尔南德斯表示,服务合作伙伴和系统集成商在帮助公司实现不同的应用案例方面扮演着重要角色。他指出,生成式人工智能的复杂性使得这些合作伙伴能够为客户提供更具成本效益的解决方案。红帽旨在通过使用更小的模型来降低成本,简化将模型与客户数据和用例集成的复杂性,并提供灵活性,以便在混合环境中部署这些模型。
RHEL AI1.3版专为企业应用开发、测试和运行生成式人工智能模型而设计。此次更新包括对IBM 开源许可的Granite 大语言模型的支持,同时还利用开源技术进行数据准备。用户可以通过与IBM 共同开发的InstructLab 模型对齐项目,利用这些组件创建可打包的、可启动的RHEL 映像,以便在混合云中进行单独服务器的部署。
新版本支持Granite3.08b 英文语言用例,并提供了开发者预览,用户可以体验该模型的非英语语言、代码生成和函数调用能力,后续版本将全面支持这些功能。此外,RHEL AI 还支持IBM 研究院的Docling 开源项目,能够将常见文档格式转换为Markdown、JSON 等格式,以便用于生成式人工智能应用和训练。新版本具备上下文感知的分块能力,能够考虑文档的结构和语义元素,旨在提高生成式人工智能的响应质量。
此次发布还增加了对Intel Gaudi3加速器的技术预览支持,用户可以在实时处理中并行处理多个请求,并在处理过程中动态调整LLM 参数。未来的RHEL AI 版本将进一步支持Docling 的更多文档格式,集成增强检索生成管道以及InstructLab 知识调优功能。
总而言之,RHEL AI 1.3版本的发布标志着红帽在企业级AI领域迈出了重要一步,其对大型语言模型和硬件加速的支持将为企业用户带来更强大的AI应用能力和更灵活的部署选择。未来版本中更多功能的加入,将进一步巩固其在市场中的竞争地位。