百度今日正式宣布,其备受期待的文心大模型4.5系列已如期向公众开放源代码,并同步推出了API服务。此次开源行动,百度慷慨地推出了十款涵盖不同任务需求的模型,从拥有470亿参数的混合专家(MoE)模型到轻量级的30亿参数稠密型模型,全面覆盖文本处理和多模态应用。
百度文心大模型4.5系列的开源不仅包含了完整的权重与代码,还通过飞桨星河社区、HuggingFace及百度智能云千帆平台等多个渠道,为开发者提供了便捷的下载和使用途径。这一系列模型遵循Apache 2.0协议,既支持学术研究,也鼓励产业应用。
在模型阵容上,百度展示了其在独立自研模型数量、模型类型多样性、参数规模、开源的灵活性和可靠性等方面的强大实力。尤为文心大模型4.5系列针对MoE架构提出了一种创新的多模态异构模型结构,这一结构有效促进了从大语言模型向多模态模型的持续预训练,不仅保持了文本任务的性能,还显著提升了多模态理解能力。
实验结果显示,文心大模型4.5系列在多个文本和多模态基准测试中均达到了业界领先水平,特别是在指令遵循、世界知识记忆、视觉理解和多模态推理等任务上表现卓越。在文本模型领域,该系列超越了DeepSeek-V3、Qwen3等模型;而在多模态模型方面,基于强大的视觉感知能力和丰富的视觉常识,文心大模型4.5系列在多项评测中优于闭源的OpenAI模型。
文心大模型4.5系列还注重轻量级模型的开发,其中21亿参数的文本模型效果与同级别的Qwen3相当,而28亿参数的多模态模型在同级别开源模型中表现最优,甚至能与更大参数的Qwen2.5-VL-32B模型相媲美。这一系列模型均使用飞桨深度学习框架进行高效训练、推理和部署,预训练中的模型FLOPs利用率高达47%。
为了进一步提升开发者的体验,百度还同步发布了文心大模型开发套件ERNIEKit和大模型高效部署套件FastDeploy,为文心大模型4.5系列及广大开发者提供了开箱即用的工具和全流程支持。这些工具链的发布,标志着百度在算力、框架、模型到应用的全栈AI技术优势上迈出了坚实的一步。作为国内最早投入AI研发的企业之一,百度通过此次“双层开源”——即框架层与模型层的同步开源,再次展示了其在AI领域的深厚积累和开放共享的决心。
文章采集于互联网