微软近日发布了三款强大的Phi-3.5 AI模型,它们分别是Phi-3.5-mini-instruct、Phi-3.5-MoE-instruct和Phi-3.5-vision-instruct,分别针对轻量级推理、混合专家模型和多模态任务进行优化。这标志着微软在多语言和多模态人工智能领域取得了显着进展,进一步巩固了其在该领域的领先地位。 这三款模型均采用MIT开源许可证发布,为开发者提供了广泛的应用可能性。
微软宣布发布三款全新的Phi-3.5模型,进一步巩固了其在多语言和多模态人工智能发展的领先地位。这三款新模型分别是:Phi-3.5-mini-instruct、-3.5-MoE-instruct 以及Phi-3.5-vision-instruct,各自针对不同的应用场景。
Phi-3.5Mini Instruct 模型是一个轻量级的AI 模型,参数数量为3.8亿,非常适合计算能力有限的环境。它支持128k 的上下文长度,专门优化了指令执行能力,适合代码生成、数学问题求解和逻辑推理等任务。尽管体积不大,这款模型在多语言和多轮对话任务中表现出了令人瞩目的竞争力,超越了同类的其他模型。
入口:https://huggingface.co/microsoft/Phi-3.5-mini-instruct
Phi-3.5MoE 模型,这是一款“专家混合” 模型,结合了多种不同类型的模型,每个都专注于特定任务。它拥有419亿的参数,支持128k 的上下文长度,可以在多种推理任务中展现强大的性能。这款模型在代码、数学和多语言理解方面的表现都非常出色,甚至在一些基准测试中超过了更大型的模型,比如在MMLU(大规模多任务语言理解)上超越了OpenAI 的GPT-4o mini。
入口:https://huggingface.co/microsoft/Phi-3.5-MoE-instruct
Phi-3.5Vision Instruct 模型是一款先进的多模态AI 模型,集成了文本和图像处理能力,适合图像理解、光学字符识别、图表和表格分析以及视频总结等任务。这款模型同样支持128k 的上下文长度,能够处理复杂的多帧视觉任务。
入口:https://huggingface.co/microsoft/Phi-3.5-vision-instruct
为了训练这三款模型,微软进行了大规模的数据处理。 Mini Instruct 模型使用了3.4万亿个标记,在512个H100-80G GPU 上训练了10天;Vision Instruct 模型则用了5000亿个标记,经过6天的训练;而MoE 模型则是在23天内使用了4.9万亿个标记进行训练。
值得一提的是,这三款Phi-3.5模型均采用MIT 开源许可证发布,开发者可以自由使用、修改和分发这些软件。这不仅体现了微软对开源社区的支持,也让更多的开发者能够在自己的应用中集成尖端的AI 能力。
划重点:
微软推出三款新AI 模型,分别针对轻量级推理、混合专家和多模态任务。
? Phi-3.5MoE 在基准测试中超越GPT-4o mini,表现出色。
? 三款模型均采用MIT 开源许可证,开发者可自由使用和修改。
总而言之,微软发布的这三款Phi-3.5模型,凭借其强大的性能、广泛的应用场景和开放的许可证,无疑将对人工智能领域产生深远的影响,为开发者和研究人员提供了强大的工具,也预示着未来AI技术发展的新方向。