AI的供应链用脚投票,美国初创AI,疑似80%使用中国开源模型

B站影视 日本电影 2025-09-03 00:37 1

摘要:在看自家投资的AI初创公司路演时发现,大部分公司拿出来的核心模型,既不是OpenAI的GPT系列,也不是Anthropic的产品,而是来自中国的开源模型。后来他提了个比例,说这个数可能到了八成。

80%美国AI初创使用中国开源模型,AI的供应链用脚投票

2025年8月,硅谷风投圈里传着个挺有意思的观察,顶级机构AndreessenHorowitz(也就是常说的a16z)合伙人MartinCasado。

在看自家投资的AI初创公司路演时发现,大部分公司拿出来的核心模型,既不是OpenAI的GPT系列,也不是Anthropic的产品,而是来自中国的开源模型。后来他提了个比例,说这个数可能到了八成。

差不多同一时间,全球开发者常看的AI评测平台DesignArena,出了份开源模型排行榜。

榜单里前16名全被中国模型占了,像DeepSeek的R1、阿里巴巴的通义千问这些名字,成了开发者讨论的热点。

这俩事凑到一块,不少人都感慨中国开源AI好像真的在影响美国的创新生态,甚至《经济学人》都直接说“中国AI靠开源要超过美国”。但我本来想跟着这个说法往下聊,后来发现光看这两个数字,好像还没法下结论——得先搞懂这些初创公司为啥非要选中国开源模型。

对刚起步的AI初创公司来说,钱永远是绕不开的坎。本来想靠调用OpenAI的API快速做产品,但后来发现这成本真扛不住。要是每天有10万次用户交互,单API费用一个月就得十几万美金。

这些公司大多还没稳定收入,这笔钱压得人喘不过气。而中国的开源模型不一样,它们能部署在公司自己的服务器上。初始买硬件花一笔钱后,后续运维成本就可控多了。

有家做AI客服的美国初创,去年算过一笔账,用DeepSeek模型替代API调用后,每月成本从3万美金降到了8000美金。这种成本优势,对要反复试错的初创公司来说,几乎是刚需。

除了钱,这些公司还有个顾虑是数据。很多AI初创做的是垂直领域,比如金融风控或者医疗辅助,手里的客户数据都很敏感。

要是用闭源模型的API,就得把数据传到第三方平台,合规风险太高。而开源模型允许他们在自己的数据上做微调,数据不用出境,安全问题也少了很多。

我接触过一家美国金融AI初创,他们去年用通义千问的小模型改了个信贷评估工具,就是因为数据能自己把控,才顺利通过了当地监管的审查。要是换了闭源模型,这步合规可能就卡壳了。

以前大家觉得开源模型性能差,只能凑合用。但2025年这情况变了,中国不少开源模型在测试里的表现,跟闭源的差不了多少。比如DeepSeek的R1模型,在代码生成的测试里,通过率跟GPT-4Turbo就差0.9个百分点。

数学推理上,得分还超过了Anthropic的Claude3。如此看来,初创公司现在不用再纠结“选贵的好模型还是便宜的差模型”,这也是他们愿意用中国开源模型的关键——性能没掉队,成本还更低。

但有意思的是,这边初创公司用得热闹,大企业那边却完全是另一个样子。我查过MenloVentures的报告,今年上半年全球企业花在生成式AI上的钱,大部分都给了OpenAI和Anthropic,开源模型占的比例特别小。为啥会这样?其实大企业的想法跟初创不一样,他们更怕风险。

大企业买AI服务,不只是要模型好用,还得要明确的服务协议和技术支持。比如沃尔玛这种大公司,用AI做库存管理时,直接从微软Azure上选了集成的GPT模型。不是说开源模型不好,而是Azure能提供稳定的服务保障,出了问题有人负责。而开源模型得自己部署维护,出了岔子没人兜底,大企业不敢冒这险。更何况,要是模型来自中国,他们还会担心地缘政治的问题,怕数据安全过不了审查。有个跨国公司的CIO跟我聊过,说他没法跟董事会解释,为啥核心业务要建在“可能有风险”的技术上。这种信任鸿沟,不是靠性能就能填补的。

还有个现象值得说,就是初创公司做大了之后,不少会换成闭源模型。MelonVentures做过调研,那些员工超50人、营收过千万美元的初创,差不多有四成会放弃开源。

原因也简单,客户要求更严了,需要更稳定的技术支持,开源模型满足不了。我认识的一家做AI教育的公司,早期用DeepSeek做错题解析工具,后来学校客户多了,就换成了Anthropic的模型——不是说DeepSeek不好,而是客户需要明确的服务承诺,这是开源模型给不了的。

聊到这,就不得不提MartinCasado在播客里说的话。他说现在AI行业有点矛盾,一方面白宫的《AI行动计划》喊着支持开源,另一方面真正开源的顶级模型却越来越少。老实讲,我觉得他说的对,因为做模型太烧钱了。

现在训练一个顶级基础模型,得花几十亿美元。企业不可能把这么贵的东西白给别人用。很多公司的玩法是,开源小参数模型赚名气,把强性能的大模型闭源留着赚钱。比如阿里巴巴开源了小参数的Qwen模型,却把大参数的版本藏着,只开放API。

就算有些模型开放了权重,要复现它的性能,还得重建数据管道和训练集群,这笔投入也不是一般组织能承担的。如此看来,未来能做顶级基础模型的,肯定是少数有钱有数据的大公司,开源模型更多会在应用层发挥作用。

毫无疑问,这种分化会让全球AI竞争更复杂,但对整个行业来说,多一种选择总不是坏事。AI的供应链从来不是靠口号决定的,而是靠谁能满足用户的真实需求。现在中国开源模型抓住了初创公司的痛点,未来能不能走得更远,还要看能不能解决更多用户的顾虑。

来源:冷知识研讨所

相关推荐