华为近日迈出了其在人工智能领域的一大步,正式对外宣布将开源其盘古系列的两大模型及推理技术。这一举措不仅标志着华为在昇腾生态战略上的又一重要实践,更为大模型技术的深入研究和创新发展注入了新的活力。
具体而言,华为此番开源的模型包括一个拥有70亿参数的稠密模型,以及一个采用了混合专家架构(MoE)的盘古Pro MoE模型,该模型参数规模高达720亿。盘古Pro MoE模型通过创新的动态路由机制,实现了计算资源的合理分配,从而在保持模型规模的同时,显著提升了推理效率。
值得注意的是,华为此次开源的不仅仅是模型本身,还包括了基于昇腾AI平台的专用推理优化技术。这一技术的加入,无疑将为开发者提供更加高效、便捷的模型部署方案。据悉,盘古Pro MoE 72B模型的权重和基础推理代码已经上线至开源平台,而针对超大规模MoE模型的昇腾优化推理代码也将在不久的将来与公众见面。
华为的这一开源行动,迅速在开源社区与产业界引起了热烈反响。不少业内专家对此表示高度认可,认为这将对我国AI产业的发展产生深远影响。一方面,70亿参数的稠密模型和720亿参数的混合专家模型为不同规模的企业提供了多样化的技术选择,有助于推动人工智能技术在各行各业的广泛应用;另一方面,基于昇腾平台的深度优化技术将进一步提升大模型应用的部署效率,为我国在全球人工智能竞争中赢得更多话语权。
文章采集于互联网