国产AI真的被华为“卷”疯了?Ultra MoE模型横空出世!

B站影视 港台电影 2025-06-01 00:02 1

摘要:5月30日,北京。在AI训练领域,一件大事炸开了锅:华为团队正式对外发布了全流程基于国产昇腾算力、自主研发的盘古Ultra MoE准万亿级大模型,参数量直接拉满到7180亿,技术报告也同步亮相。一时间,国产AI基础设施到底能不能站稳脚跟引发全网热议。

5月30日,北京。在AI训练领域,一件大事炸开了锅:华为团队正式对外发布了全流程基于国产昇腾算力、自主研发的盘古Ultra MoE准万亿级大模型,参数量直接拉满到7180亿,技术报告也同步亮相。一时间,国产AI基础设施到底能不能站稳脚跟引发全网热议。

回到事件本身,这次华为是怎么把“自主可控”做到极致的?先说硬核部分:整个盘古Ultra MoE模型从头到尾都在自家的昇腾AI芯片和集群上完成训练,没借助国外方案。这个模型的重量级在哪?数据量18TB,参数规模达7180亿,属于准万亿阵营。一堆新词眼花缭乱——DSSN稳定架构、TinyInit小初始化、EP loss负载优化、Dropless训练、MLA与MTP深度融合,东拼西凑可不是目的,这些创新让训练过程不但稳得住,还能高效分配资源,让每个“专家网络”都各司其职、各显神通。这可不是实验室玩乐级别,而是实打实撑起超大规模人工智能“自主生长”的底气。为了照顾训练效率,华为还给超节点做了强化学习的升级,怎么用千余张AI卡就能让MFU(多卡利用率)提升到41%?一句话:开发自适应数据流水优化+算子重排序,谁说中国集群只能“跟跑”,结果人家现在已经开始创新“领跑”。

而且这还没完,盘古Pro MoE同批上线。参数虽然只有720亿,但通过动态激活只用160亿,也能跑赢一些吹得天花乱坠的千亿级国际大模型,实现以“小模型打大模型”的戏法。SuperCLUE公布的榜单显示,它和高参数组“并列国内第一”,真是有点“田忌赛马”的味道。

网友讨论也很热闹。有的说,“国产底层芯片自己掌控,终于不用担心被掐脖子!”还有人指出,这说明国产AI产业链越来越完整,不靠外援也能做出好模型。当然也有质疑:“效果真能比肩国际水平吗?”“具体场景落地咋样?”实际对比测试,或许还得继续往下看。但这些技术突破,起码让中国AI不只是听别人讲故事,而是有能力写自己的剧本。

总的来说,华为这波操作相当于给行业内部提了个醒:“别什么都靠买现成的,踏实把技术链攥在手里才靠谱!”现在全球AI大赛跑,谁能自给自足,谁就不怕突然“掉链子”。能不能一直领先?谁也不好说,但这一步,起码走得够硬核。

来源:东哥畅享

相关推荐