摘要:一边是零一万物与阿里云达成合作,不再独立追求超大模型的预训练;另一边,以豆包为代表的大厂模型仍在快速进化,“不差钱”的DeepSeek更是以创新架构,让人看到超越OpenAI的可能性。
文/观察者网 张广凯
2025开年伊始,国内大模型行业似乎正酝酿着一场剧烈的格局变动。
一边是零一万物与阿里云达成合作,不再独立追求超大模型的预训练;另一边,以豆包为代表的大厂模型仍在快速进化,“不差钱”的DeepSeek更是以创新架构,让人看到超越OpenAI的可能性。
这似乎印证了一段时间以来的流言:国内大模型企业将进一步收敛,一些过去的头部玩家也开始掉队?
另一个有趣的现象是,此前一直走闭源路线的MiniMax,最近突然发布了自己的开源模型。开源是弱势方争夺市场的捷径,还是本身就具备比闭源更好的商业逻辑闭环?
当然,美国对中国愈加严厉的政策限制,一直都是不容忽视的巨大风险。国产大模型行业准备好迎接进一步脱钩了吗?
围绕上述话题,我们邀请AI生态专家、曾任零一万物开源及开发者生态负责人的林旅强,以及Hugging Face工程师王铁震进行对话,收获了不少新颖的观点。
摘要如下:
·中国大模型行业的研发能力与OpenAI没有明显差距,即使放弃预训练的团队,也并非因为训练效果不佳,只是更好的商业选择。
·随着主流模型能力基本够用,一味追求模型能力最强或许是个误区。以操作系统为例,性价比才是大规模应用的决定性因素。
·当算力成本进一步降低,开源模型的性价比将更加突出。
·开源的优势还在于更容易成为行业标准。
·开源的AI开发工具链,对大模型的国产化替代意义巨大。
以下为对话全文:
放弃预训练,不是能力不够
观察者网:可以聊聊最近零一万物预训练团队并入阿里的事吗?这是不是意味着,国内头部大模型公司之间的能力已经在分化,零一发现自己预训练的效果不够好?
林旅强:完全不是这样的。零一的团队很强,预训练出来的东西也很强,去年5月发布的Yi-Large,10月发布的Yi-Lightning都很好,尤其是Yi-Lightning,可以说是当时时间点上最强的之一。
但是模型强不强,跟商业上能不能走通是两回事。零一绝对不是没能力做预训练,而是作为一个小公司,必须面对现实——你投入巨大的资源去做预训练,能不能做到self sustainable?是不是对投资人负责?
所以一个公司最终还是要去找到符合商业规律的生存之道。
王铁震:对,我非常同意。我要补充一下,其实中国的research非常强,这两年中国的大模型追得非常快,包括最近的DeepSeek,甚至让OpenAI都感到一些危机。
如果说中国跟美国的头部模型存在一些差距,我觉得不能说是人的问题,主要还是因为资金的分配、公司的政策方向等等。像零一这样的中国公司,有最优秀的团队,有开复老师的领导,那么如果给它像OpenAI一样的资金,它绝对也能做出同样好的产品。但是这样的条件在中国是很稀缺的。
大部分中国公司,不可能把无止境的资金投入到一个非常烧钱的项目里。在“六小虎”中,所有人一开始都是to b也要做,to c也要做,to developer也要做,foundamental research也要做,但是很快大家就会发现,我不可能每一件事情都做得好,每一件事情的竞争都是非常激烈的,我需要把所有的精力放到某一个自己很擅长的事情上面,才能做出最好的效果。
可能零一也经历了这样一波周期,发现必须把全部精力集中在做APP,或者专注做to b。我觉得这完全没有问题,因为很少有公司能够像DeepSeek或者阿里巴巴一样,有另外赚钱的业务去养活不赚钱的foundamental research。
所以我觉得国内做预训练的公司会越来越少,其实是一个好事,是更好的资源调配。想做预训练的人也可以更集中,资金也可以更集中,可能最后只有四五家模型,但每家都可以得到非常多的资金支持,可以走得更远更好。
中国很多行业都走过了类似的路,比如说电动汽车、光伏,都经历了自然淘汰的过程,从无序竞争到有序收敛,这是一个市场比较理想的状态。
观察者网:也就是说国内的大厂也好,“六小虎”也好,在大模型能力上还没有显著差距。
王铁震:我认为还在牌桌上的玩家,水平都没有太大的差距,有差距的自己已经放弃了,所以牌桌上的玩家确实在减少。
林旅强:很多行业应用,也未必非要去做预训练。例如百川很早就宣布把重点放在医疗,那么医疗大模型是不是一定需要做预训练?基于别人的基座大模型,拿行业数据去做后训练是不是足够了?
所以退出牌桌的人,也不一定是失败,而是调整。所有公司都要找到适合自己的路。
观察者网:那么当初为什么大家一拥而上都去做预训练?是战略选择错误,还是担心使用别人的模型,不是好的商业模式?
林旅强:首先,你要向资本市场讲一个故事。2023年上半年,资本市场会觉得一个团队能做预训练,代表团队的能力是很扎实的。
另一个原因是当时的基座模型还不够强,后续去做fine-tune的效果也不好,所以只能自己去做基座。
现在,很多大模型效果已经好到一定的程度,甚至10B以下的小模型都比当时强很多了,对很多场景来说完全够用了。所以大家不会再盲目追求超大模型。
王铁震:对,刚开始的时候,你必须向资本市场证明自己的团队实力。只做fine-tune的团队,估值不会很高,后续做很多事情就会非常受限。而且最开始的那段时间,市场上资金是最充裕的,越往后融资越难,如果开始拿不到足够资金,后面可能很快就死了。
还有很重要的一点,是对人才的争夺。那个时候大模型人才是相当稀缺的,很多公司都需要开出非常高的薪水挖人。
做预训练更有利于去培养自己的团队。如果只是做微调,你只能看到世界的一小部分,只有懂预训练的人才能告诉你,一个问题到底应该用预训练解决,还是后训练解决。
但在今天这个时间点,基于很多开源模型去做后训练,已经能达到比较好的效果,预训练可能就更多是一种情怀了。
最好的大模型,未必要最强
观察者网:那么在今天这个时间点上,开源模型跟闭源模型的能力还有差距吗?
林旅强:我想先correct一下这个问题本身。模型就是模型,不会因为它是开源或者闭源就更强或更弱,模型强弱跟是否开源是完全两个维度的事情。
观察者网:但是最早Llama之所以选择做开源,可能是因为它不够强,要通过开源来抢市场。
林旅强:开源确实有利于抢占市场,但是它想抢市场,跟它够不够强,不能建立直接关系。现在DeepSeek也是开源,难道是因为它不够强?所以我个人觉得Llama只是开源中一种情况,并不代表开源的本质。
开源和闭源的参与者也是动态变化的,比如之前一直闭源的MiniMax,最近突然也做开源了,这并不只是取决于模型强弱。
王铁震:这是一个经常被问到的问题,最近我刚好也有一些新的想法。
首先就像前面提到的,没有开源强的闭源模型已经死掉了,所以结果就变成,闭源模型永远是大于等于开源模型。
之前我也觉得,开源模型跟最头部的闭源模型相比,还是有非常大的差距。但是最近DeepSeek发布的成果,以及国内在推理模型上面的进展,都让我觉得差距没有那么大了,反而是OpenAI更应该感到焦虑。
视频生成模型也是一个很好的观察角度。Sora是一个闭源模型,它刚出来的时候大家都惊叹,中国跟它的差距非常大。但是现在大家惊叹的反而是,Sora怎么一直都像个期货,好像还不如中国的开源模型给力。
所以开源模型是可以很强的。但这个问题仍然很有价值,我会想问,如果开源模型厂商真的做出了比OpenAI更好的模型,它们还会不会继续开源?整个开源生态本身已经在收敛,如果再有更多厂商放弃开源预训练,对行业将是巨大损失,因为没有市场竞争的话,很难保证大家都还愿意在这个牌桌上玩。
观察者网:所以仍然可以说,闭源模型大于等于开源模型?究竟有没有哪家开源模型,能够达到跟OpenAI差不多的能力?
林旅强:其实对于开发者跟行业来说,很多开源模型的能力是足够的。那么在同等能力情况下,如果有开源的选择,我一定选开源,因为性价比就是开源强。
所以你怎么去评判强不强?论性价比开源超强。你的问题其实暗含了一个假设,认为模型能力一定要达到最强,这件事情是很重要的。如果从科研角度或者公司估值的角度,追求最强确实是有意义的,但是从我们开发者角度,性价比高才能普及。
我举个例子,PC端操作系统,最强的肯定是Windows或者macOS,但是Linux对于全球行业的影响力或许更大。你看得到的机器上跑的都是Windows或者macOS,你看不到的机器上跑的基本都是Linux,后者的数量可能更多。
Linux甚至根本不需要一家公司去推动,它成立一个基金会,IBM、谷歌都会捐钱。每家捐几百万美元,就能换来持续可用的操作系统,而且不会被人卡脖子。
所以究竟是Linux最强,还是macOS比较强,现在已经没有人care这一点了。
观察者网:有支持闭源的人,说开源模型是“智商税”,认为即使从成本来看,闭源也比开源要低。
林旅强:我尊重他们的选择,但我不认同这个结论,开源相比闭源成本一定是低的。因为购买一个闭源模型本身就是很大的支出,在此之外,开源不会比闭源增加任何成本。
王铁震:一些现在做闭源的公司,其实在过去的时代也在做开源,对NLP、OCR等领域都有很大帮助。后来在大模型领域转向闭源,虽然很可惜,但是一定是经过了深思熟虑,甚至可能也有激烈的内部讨论。那么一旦选定了技术路线,对外也只能这样说。
开源的好时代还在后面
观察者网:大模型的开源方式,跟Linux这样的传统开源方式也有很大区别。
林旅强:完全不一样,现在的开源大模型并没有把关键素材开放出来。
Open Source的基本逻辑,第一是透明,第二是可复现。但大部分开源模型的tech report都不够透明,比如用了什么样的数据集,这是各家的秘方,是不可能拿出来的。
传统的开源软件,所有代码都会公开在GitHub上,你能够完全去复现这套软件,并且做出进一步贡献。比如你发现一个bug,可以去提交修复。但所谓的开源大模型,仍然是一个黑盒子,我无法去修改这个黑盒子,无法改善它,只能够基于它去做后训练。所以它更像是开源和闭源之间的一个中间态。
真正开源的大模型,其实Hugging Face上也是有的,比如BigScience项目,可以给出完全开源的数据集和训练代码,但是大部分开源模型做不到这一点,我认为把它们叫做开放模型更合适。
观察者网:真正意义上Open Source的开源模型团队有哪些,主要在国外吗?
王铁震:这是一个很有意思的现象,国内做开源的主要是大公司,或者能拿到国家资助的学术机构,而在海外有很多自发的组织,他们可能只是依靠一些捐赠,或者就是几个学生做着玩,然后得到一些企业帮助。
据我了解,国内真正满足开源标准的团队,主要有两个。一个是RWKV(元始智能),他们最早用Stable Diffusion的几百张卡一直在默默做预训练,现在也逐渐开始寻求商业转化。另一个是MAP,他们是一个虚拟的在线组织,成员主要是国内大厂的研发人员,会进行一些跨机构的合作,发布过真开源的模型MAP-NEO,以及春运数据集等等。
海外的开源大模型团队大家可能更熟悉,除了Hugging Face的项目,还有艾伦AI研究院(Allen Institute for AI),后者得到了盖茨基金会的支持。
观察者网:真开源项目少,是不是大模型的训练成本过高造成的?因为即使开放出来也很少有人能去复现。大模型领域不太可能产生类似开源软件的生态?
林旅强:对,我们回过头看Linux生态是怎么长出来的,一个重要原因是个人电脑很便宜。
最早发起自由软件运动的人,理查德·斯托曼,当时在MIT的人工智能实验室任职。他认为软件应该是自由开源的,可是当时的电脑太贵,他在实验室里想要做软件编译,都得排队去申请使用电脑,就像今天的大模型研究者排队求分配显卡,这种资源稀缺的情况是无法做开源的。
到Linux出来的时候,PC已经便宜到让野生开发者都能够在自己家里面写代码,这是摩尔定律带来的算力民主化。
所以我认为当下的 AI大模型,还处在当年的实验室阶段。等到算力成本继续降低,AIPC能够让每一个人在自己家里就能跑得起大模型,或者训练一些小模型,开源的百花齐放就会来临。
观察者网:摩尔定律在GPU领域还能继续有效吗?
王铁震:讨论摩尔定律,一方面我们可以期待下一个世代的硬件进步,甚至量子计算有怎样的前景。另一方面,软件或许也有一些办法能够让摩尔定律延续,比如MiniMax、RWKV尝试的Linear Attention(线性注意力机制),就是降低算力成本的另一条途径。
其实芯片领域的摩尔定律之所以一直能延续,不是因为最早的技术能一直延续,而是行业在不停地变换技术栈,寻找摩尔定律的新的解释方式。我觉得AI行业肯定也能做到这一点,比如用更小的模型就能获得现在很大模型的效果,或者用超越传统Transformer的架构来取得对算力需求的数量级下降。甚至未来是不是可能专门为大模型设计一种ASIC,效率远远超越通用GPU。
所以我们不用太悲观,至少现在英伟达的GPU还在快速进步,未来也有很多替代路线可以探索。
开源是一场标准之争
观察者网:即使解决了成本问题,做开源模型的回报在哪里?一些大厂,比如阿里云、字节,可以用其他业务变现。但是像“六小虎”这样的企业,为什么要开源?
林旅强:每一个企业做开源,一定是符合商业理性的,一定要能促成他的商业逻辑闭环。我不认为开源只是靠情怀。
扎克伯格当初写了一篇文章,解释为什么要把Llama开源。文章标题是Open Source AI Is the Path Forward,开源是未来之道。
扎克伯格表达了两个观点:一是开源能够避免重复造轮子,把自己的一些成功拿出来给大家用,能够降低整个行业的研发成本;二是开源也有助于形成行业标准。
我想大企业做开源,真正的动机肯定不只是第一点,帮别人省钱。而是这个钱省了之后,他就会落入到我的生态系统,他的根就在我这边,我在这个生态系统里拥有绝对影响力。那么以后这个行业的基础设施和技术路线,都是要跟我挂钩的。
从商业的角度来讲,标准等于垄断,制定标准的人赚最多钱。
我曾经在华为从事开源项目,华为为什么做那么多开源?第一他不想被卡脖子,第二他也希望能定出标准。华为的开源项目是放在产业与标准部门里的。过去在通信领域,像3G、4G、5G,或者蓝牙这样的通信协议,是有行业联盟来制定标准的。但是到了软件领域,华为发现没办法做联盟,开源形成的事实上的标准,把联盟垄断的路子都给断了,搞标准只能从开源切入。
观察者网:零一为什么要做开源?
林旅强:对一些企业来说,做开源也有秀肌肉的作用。通过一个很厉害的产品,让市场认识一家公司,这是后进者能够让自己传播的一种方式。
还有很多企业,会同时做开源免费版和商业收费版两种产品。通过开源的方式,能更快得到客户,然后只要开源免费版的基础够大,我也可以通过一些产品设计,满足更多的商业诉求,变成付费版本。
在国内主流的大模型公司里,零一已经算是入局比较晚的,所以必须开源。但我加入零一,首先是因为他们的模型足够强,因为开源生态非常依赖于产品强不强。
零一选择了开源闭源并进的策略,认为最强的模型必须是闭源的,同时也去建设开源生态。但这未必是大模型开源的唯一解,有时也会让客户感到矛盾。通义千问全部做开源,其实也是很好的思路。
观察者网:对客户来说,开源的安全性会是个问题吗?
林旅强:包括央国企在内的大模型招标,通常不会在标书上要求是开源还是闭源。开源完全能够满足安全性的要求。因为安全性主要不取决于开源闭源,它们都是黑盒子,没有区别。安全性主要靠大量的测试,比如做各种渗透测试,或者红军蓝军对抗。
王铁震:其实从安全的角度上来讲,开源模型反而能允许你做更多的测试,而且这些攻击行为不会被泄露到第三方。从这个角度上来讲,开源模型实际上更安全。
林旅强:没错,很多白帽黑客可以自己去拿开源模型做攻击测试,把结果在行业中交流,让大家知道如何防范。但是你不能去攻击一个闭源模型,这是违法的。
开源圈内有句话,只要眼球足够多,所有bug都现形,对大模型也是适用的。
应对卡脖子,开源工具链也很重要
观察者网:还有另一个维度的安全性,人们会担心一家商业公司控制的大模型未必符合公共利益,提出了“对齐”的概念。开源模型有助于“对齐”吗?
林旅强:所有模型都会承载一些价值观,会对用户产生特定的影响,这是一定会发生的事情。开源模型会成为整个价值观光谱中很好的补充,但未必一定要靠开源。在一个好的市场中,社会价值观本身就是相互冲突和平衡的,市场的力量自然也会让大模型取得平衡。
政治因素也会产生影响,李开复老师也说过一个概念,叫做一国一模型,每个国家的法律不同,道德观念不同,大模型也是要经过一些调整的。
王铁震:开源能给大家更多的选择,每个国家、每一个人都可以根据自己的需求去做定制模型,那么实际上是一种技术普惠。
其实大家选择模型的时候会有很多不同考虑。前段时间国外网友有个帖子,说通义千问很好,但是我不能用。因为国外公司也会有一些policy,不允许使用中国模型。
观察者网:地缘政治正在成为更大的威胁。如果美国加强对中国的GPU和大模型制裁,开源对国产化有什么帮助?
林旅强:我不是地缘政治专家,但我觉得“卡脖子”是必然要发生的事,因为美国无论哪个党执政,对中国的政策都没有太大区别了。既然他要搞,我们就要因应,国产化芯片能够接得住的地方,就要全面导向国产化,接不住的地方也要寻找迂回的方式。
当然美国也是一个很多力量在拉扯的的国家,像英伟达这样的大企业也有动机去阻止禁令,也会对结果产生影响。
王铁震:如果说大模型层面,其实得益于开源工具链的发展,现在模型之间的切换是比较容易的。如果你要换用一个新模型,只要把prompt调整一下,把模型ID换一下就好了。除非一些架构比较独特的模型,比如DeepSeek,因为它工具链上的兼容不完备,大家想要把它高性能地跑起来还是有一些困难。
在AI基础框架上,百度做过一些很好的工作,比如开源的PaddlePaddle(飞桨)是国内最好的AI框架之一。只可惜百度在大模型时代没有继续走开源路线,否则在大模型的加持下,PaddlePaddle生态会有更加巨大的发展。
林旅强:我认为PaddlePaddle就是中国第一的AI框架,但华为的开源框架MindSpore(昇思)现在有很好的机会,因为华为只要决定做,哪怕慢一点,也会坚持下去。
AI从硬件到软件,大致可以分为4层,华为都有布局。芯片层面的昇腾,对标英伟达CUDA的CANN计算架构,然后就是MindSpore,以及最后的模型层。
华为目前的模型能力不是最好的,但是如果能把从下到上的整个stack做起来,还是会非常厉害。
不过虽然华为有开源框架,但它整个生态可能还是封闭的,有利于独占商业化回报,别人是不愿意加入的。
观察者网:华为能够从哪些方面更好地帮助国内开源生态吗?
林旅强:举个例子,零一万物跟昇腾就有过合作。其实在很早之前,昇腾的朋友就来问过我们,能不能把零一的开源模型拿到昇腾上。我们不反对别人把模型拿过去,但问题在于,我们本来就是开源的,没有收入,如果还要来自己花人力去适配昇腾,最后昇腾大卖,我们能够得到什么回报?
这其实不是华为一家的问题。熟悉海外开源生态的人都知道,做开源不能只让开发者去奉献,他们一定需要得到某种回报。国内的开源生态建设,还有很多需要提升的地方。
来源:观察者网