对话90后教授尤洋:放弃DeepSeek泼天流量,潞晨早就想好怎么活

B站影视 内地电影 2025-03-19 13:25 1

摘要:在大众眼中,潞晨科技是一家不知名公司。但其创始人尤洋,早先已凭借“90后教授”“加州伯克利博士”等头衔成为资本热追的对象。今年初DeepSeek爆火后,尤洋因质疑MaaS虚假繁荣被行业抨击。在更多小公司all in DeepSeek的当下,潞晨为何要放弃泼天流

摘要:

在大众眼中,潞晨科技是一家不知名公司。但其创始人尤洋,早先已凭借“90后教授”“加州伯克利博士”等头衔成为资本热追的对象。今年初DeepSeek爆火后,尤洋因质疑MaaS虚假繁荣被行业抨击。在更多小公司all in DeepSeek的当下,潞晨为何要放弃泼天流量?凤凰网科技《浪潮》对话尤洋,聊了聊其在AI爆发潮背后的思考。

今年3月,尤洋陷入了一场漩涡。

作为创业公司潞晨科技的创始人,尤洋曾因顶着清华学霸、伯克利博士、新加坡国立大学校长青年教授等头衔而在业内颇具名气。他还是一个90后,小红书活跃用户,技术控与“社媒活人感”在他身上实现了很好的融合。

争议的起因,来自尤洋公开质疑火热的MaaS(模型即服务)商业模式,称中小云厂商若部署开源大模型DeepSeek-R1“满血版”,每月亏损或达4亿元,这一看法与后续DeepSeek官方宣称的“理论利润率545%”形成了巨大反差,引发行业震动。

更为与业界格格不入的是,3月1日,潞晨科技成为首个宣布停止DeepSeek API服务的创企,此时距离其上线DeepSeek API仅过去一个月。

凡此种种,被人们解读为了“和DeepSeek唱反调”,从而让尤洋本人遭受到了巨大的非议。

在陷入风波后不久,凤凰网科技与尤洋进行了一场对话,回忆风波中的争议话题,他依旧坚持着自己的想法。在其看来,MaaS业务需承担算力波峰波谷的成本压力,而客户对稳定性和延迟的高要求进一步挤压利润空间,“价格战肉搏”难以为继。

一直以来,尤洋在AI圈子里都不是小透明。其在博士期间开发的LAMB优化器曾被谷歌、微软等巨头采用,将BERT模型训练时间从3天缩短至76分钟,至今仍是行业标杆。2021年回国创立潞晨科技后,他又将技术优势转化为商业产品,推出分布式训练平台Colossal-AI和视频生成模型Open-Sora。

潞晨自创立之初也备受资本追捧,三年多的时间里已拿下6轮融资,且据尤洋表述,其手中仍握有TS(投资意向书)。

在尤洋看来,在中国市场,AI infra层的机会在于利用DeepSeek、通义千问等模型能力,在行业私有数据上做行业模型、企业私有模型。“这个需求是真实的,账起码能算得清楚,利润也是可观的”。

与此同时,潞晨与其他AI infra层企业的最大不同,是还在自研视频大模型产品。但尤洋对视频大模型的思考不太一样,其认为视频大模型本质上是一个算力优化的生意。“未来3到5年,视频大模型为核心的多模态、世界模型会不断地发展变大。这个过程中,最重要的就是算力优化,要考虑如何去提升训练、推理效率,降低开发、推理成本,这就是AI Infra厂商最应该关注的事情”。

在一个相对清晰的发展思路之下,尤洋已经对潞晨的发展有了初步的规划,即做到 200 亿到 300 亿量级,然后上市。“目标非常量化,也很明确,就是达到 20 亿的收入”。

以下是凤凰网科技《浪潮》与尤洋的对话,经编辑发布:

“抨击MaaS模式,掉入舆论漩涡”

凤凰网科技:春节后那段时间大家都一窝蜂冲上去做DeepSeek API,那时候你在做什么?

尤洋:我们也确实收到了很多DeepSeek相关需求,潞晨也迅速在训练、微调、推理等多方面都做了方案发布,包括和华为联合推出的一体机。

实际上线验证了MaaS业务,虽然有很多用户,但目前确实不是一个好的商业模式,所以决定集中资源、聚焦高创新业务,拒绝盲目跟风和低效投入,加速核心产品迭代。

凤凰网科技:潞晨现在有哪些核心业务?

尤洋:主要是三块,大模型开发和部署平台,旨在最大化提升AI大模型的后训练和推理部署效率,打造AI算力版DataBricks;大模型企业私有化部署和一体机,用DeepSeek和通义千问等世界一流大模型的能力,基于高质量私有数据,为企业开发/部署私有模型和行业模型;布局未来,坚信视频生成大模型是世界模型和多模态模型的核心,基于Open-Sora打造效率最高的视频模型及商业产品。

凤凰网科技:你也不是第一次给MaaS模式算账,觉得不是一个好的生意模式,你觉得为什么近期这个话题突然热了起来?有什么变化发生了吗?

尤洋:对,目前依旧不是,所以潞晨撤掉了MaaS业务。热度起来,一方面确实各家都在接入DeepSeek,另一方面DeepSeek也进一步开源了新内容,本身会有热度和讨论。其中涉及了盈利测算,网上许多人认为和我的观点相差很大,就引起了讨论。

我对DeepSeek没有任何贬低,DeepSeek出圈前,2025年1月2日我就在微博上说过DeepSeek是中国最好的模型。我最开始就是抨击那些倒卖DeepSeek API去赔本赚吆喝的中小云厂商,然后吹嘘自己推理快10倍。在网上被解读成跟DeepSeek去对立。一些厂商会精选特别好看的性能结果发布,我们2月初就已在较真实场景下评估,当然具体的数值随着全世界一起优化探索迭代,对某个特定模型肯定会越来越好,但是我觉得站在2025年初的角度,中小型云厂商不太可能通过MaaS赚到钱。

凤凰网科技:你们在真实场景下评估的结果怎么样。

尤洋:具体的推理吞吐速度,其实是有许多影响因素的。首先,输入输出序列长度变化的话,吞吐率的变化是很大的,我用的是更现实的情况。因为在实际用的时候,输入输出的序列长度是不会太短的,一长它的吞吐率就下来了。

第二,真正在线服务用户的时候,有的用户在做多轮对话,有的用户在做翻译,有的用户在做摘要,他们的任务也是非常复杂的。

第三,很多情况还需要联网,联网的话要读很多网页,那输入输出序列就更长了。这三个因素加起来后,我那个跑分指标其实已经算是不错的了。

第四,不同规模的厂商,可选择的方案也不同。比如DeepSeek官方发布的推理方案,最小部署资源需要数百张高速互联的H800。对中小厂商来说,MaaS后续可能有上百个模型在运行,每个模型的最佳方案和所需资源可能都不一样,在价格战的情况下,是否为每个模型都做这样的投入需要谨慎。

第五,研究推理优化的门槛,相比训练等还是低得多的。每个大学实验室、公司,有1台服务器就可以做。以DeepSeek的热度,全世界在一起优化探索迭代,具体数值上会随时间有变化。

当然,肯定会有人宣称通过倒卖DeepSeek API盈利了之类的。肯定也有人会做一些FP4量化蒸馏剪枝之类的工作,就是测一些比较美好的数据。

但售卖DeepSeek等标准开源模型API的MaaS业务,现阶段不是最适合市场的一种产品形态,它承担了全产业链的亏损。这种产品形态只适合用户去做测试,但是用户一旦真的想做一个AI App,对稳定性、延迟的要求是非常高的。但是MaaS这种产品卖的是按需token,任意客户任意时间的波动需求都必须时刻满足,不会管供应商后端的机器利用率。比如当前有10万人的请求在用这么多机器,可能过5分钟调用量就变小或变大,因为如果我的MaaS下游接入了很多App,随时都可能有很多用户的调用变动。但我为了容纳高峰保障MaaS服务的商业稳定,机器要能容纳最高峰,低谷还是得放着,成本还是高峰那么多,因为我的算力不管是租还是自建,算力成本都是随时间稳定产生的。

凤凰网科技:所以你怎么看DeepSeek公开的那个利润率?

尤洋:DeepSeek是很优秀的团队,做出了很好的成果,开源分享了许多内容,也给出了545%的成本利润率,但其实你细读一下,它也做了很多假设,它自己都说是理论营收。如果要做成一个稳定性很好的商业版MaaS的话,实际上基本是不可能达到的。

DeepSeek把它的App、网页版加上MaaS混在一起来统计,能收费的只是其中一部分。另外让To C的网页端、App,用户等个一二十秒钟勉强可以接受。但是我感觉最好不要让用户等待超过15秒,因为我问一个问题,15秒还没回复,或者直接崩溃,你可以想想用户体验好吗?春节的时候大家用DeepSeek,它连这个需求都满足不了,更别说商用MaaS了。To B的MaaS要求会高得多,下游应用企业不会接受上游MaaS供应方没有基本的可靠性,导致自己的下游业务随时崩溃。

凤凰网科技:DeepSeek本身也不是一家追求服务质量的公司。

尤洋:当然,DeepSeek也没有把自己说成MaaS,用户体验也不是它的最高优先级,用户愿意等1小时或第二天再试也行。目前DeepSeek的情况跟很多模型企业,尤其是使用开源模型部署MaaS的第三方企业还不太一样,因为官方服务能力是供不应求的,用户对它体验的容忍度也不同,它的平台是基本稳定的有超负荷的用户需求打满硬件资源,也不需要覆盖业务的全部成本,所以它很适合MaaS模式。而且DeepSeek也不把自己定为Infra/MaaS厂商,可能也不想去赚这个钱。我觉得DeepSeek完全没必要去关心这个东西的线上体验怎么样,就是把模型训好。反正把模型都开放给大家,哪个想赚钱就拿走,它就专注于做AGI。

凤凰网科技:你觉得中小云厂商和DeepSeek面临的情况完全不同?

尤洋:这些中小云厂商使用开源模型,真正面向B端提供MaaS的时候,它的要求是非常高的。一旦考虑用户体验,考虑B端对延迟和稳定性的要求之后,就必须得有足量的机器,满足业务需求的忽高忽低。比如我的客户们虽然当前日均输出1000亿个token,但我可能得准备输出4000亿到5000亿token能力的机器,才能保证客户们的业务运行都很稳定。同时,每家都在提供同样的模型API,客户几秒钟内就能在不同厂商之间切换。导致MaaS厂商不仅要满足高要求,还需要相互卷价格。

虽然有全世界一起优化来降低推理成本,包括DeepSeek官方也给出了很高的利润率,但对于MaaS来说,关键在于大家能否自己直接复现达到理论盈利上限。以及在大家都获得优化降本的情况下,售卖DeepSeek等标准开源模型 API的MaaS业务,能否脱离当下的价格战?

其实很简单就可以验证:如果MaaS是好的商业模式,大家都在挣钱,为什么各种大小云厂商,比如阿里云、火山云、优刻得、并行科技、首都在线这些全都要在卖MaaS API的同时,要再费力气去推私有化的一体机和专属实例。因为一体机和专属实例是客户独占的,是稳定和不亏损的。

凤凰网科技:这个生意如果换大厂来做可能更好理解,亏损换规模。

尤洋:大厂的优化手段和可选方案可能比中小型厂商会更好一点,也更可能收回更多成本。况且他们还有长远的战略性布局,完全可以承受一时的亏损。

比如腾讯有微信,最近元宝快速增涨到了App榜单第一,字节有飞书、抖音,百度有搜索,即使短期内亏损几十亿,它们日后通过这些超级App和其他业务,是可以消耗很多token的,再通过一些额外付费或整体业务考虑,就把这个亏损补回来了。

但初创企业即使融了几个亿,可能还没大厂一个月的营销推广费高。我觉得只使用第三方开源模型以当下的MaaS模式卖API的话,肯定是亏的。如果它作为一个功能点提供到其他产品里,最终通过那个产品赚钱,是有可能的。

凤凰网科技:潞晨作为一个创企,如何保证不被大厂射程扫中?

尤洋:我们不是MaaS厂商,把我们叫成AI基础设施厂商或者AI基础软件厂商比较合适。我跟大厂也没有任何竞争,我创业如果去跟它们直接竞争,完全是“自杀式创业”。

我们现阶段主要产品就两个。一个是我们的算力平台,或者也叫大模型开发+推理平台。第二个产品就是帮一些中小型企业去做大模型私有化。他们的数据甚至不能出自己的公司,我们就提供一套大模型私有化的开发+推理的工具软件。需要机器的话,再把我们的一体机一起卖给他们。

我觉得在中国市场,利用DeepSeek、通义千问的能力,在珍贵的行业私有数据上去做出行业模型、企业私有模型,再用云算力或者一体机帮企业高效地部署起来。这个需求是真实的,账起码能算得清楚,利润也是可观的。

凤凰网科技:DeepSeek之前发了一些开源项目,你怎么评价这些开源?

尤洋:DeepSeek是很优秀的团队,开源了很多优秀的技术组件,但是整个产品和业务是有很多工程细节的,开源的只是一部分,DeepSeek可能还做了一些其他内部优化,后台也有比较复杂的系统,别人不能准确地理解、复现它。以及不同公司能投入的机器资源和承担的亏损能力,也就直接限制了方案选择。

但对MaaS层目前很难做出差异,原因就是它用的模型不是专属独有的,各家提供的都是都一样模型。第二,它后台的技术软件有很多开源的方案,不仅DeepSeek开源相关方案,主流的SGLang、vLLM、TensorRT也都开源,全世界任何开发者都可以上手优化。这两大重点都没有差异性。

我们的独到之处就是自己做了一套训练、推理、微调的系统“Colossal-AI”,基础版本也是开源的。加上DeepSeek等初创企业、英伟达、微软等大厂、以及来自全球的开源社区的顶尖开发人员,大家已经在推理层做了很好的开源方案。

因为推理就是一个前向传播的过程,它的计算结构非常清晰。全世界的研究人员已经做了多年,研究门槛也低,所以我觉得现在MaaS这种模式,可能是一个不容易做出稳定的差异化,形成产品壁垒和盈利的方式。

我仔细考虑过,像今天OpenAI和Anthropic的模型,在许多用户第一印象里还是比竞品好一个档次,并且它是闭源独有的。在这种情况下,它就有稀缺性,就能形成壁垒。它去卖API,就不会面临各家都售卖标准开源模型 API的MaaS业务,只能打价格战的恶性竞争。

DeepSeek是一家伟大的企业,特别是DeepSeek的开源很好地起到了全民普及世界一流模型的重任。在这个阶段,我个人包括很多从业者都觉得DeepSeek这种开源模式是最好的、对中国贡献最大的,现在带动这么多资源都在布局DeepSeek和AI产业。

那要是再往后发展三五年,假如中国已经有了一个明显在世界领先的模型,我还是觉得闭源的模式是更好的。长期来看,我觉得还是需要一家大模型公司去做闭源,并且它的模型质量绝对领先,形成绝对垄断。这样有绝对利润的话,才有能力和愿意去投入更多的经费做前沿性的探索,给人类未来一个更大的普惠。

就像我们现在能享受AGI浪潮,谷歌之前做了很多贡献,包括提出Transformer、资助Geoffrey Hinton和Ilya Sutskever去做前沿研究。为什么谷歌能做这么多前沿性的布局,就是因为谷歌在搜索引擎行业形成了绝对的垄断。只有垄断了、把足够多的利润拿走了,它才有这个心思和投入去前瞻探索。如果大模型最终变成了像服务器市场这样,大家整天在卷价格,都是巨额亏损或者勉强生存,像戴尔、IBM这些公司,虽然体量很大,但现在也没有足够的经费去做不确定性很高的前沿研究。

“潞晨不是一个常规的AI Infra公司”

凤凰网科技:今年会不会是AI Infra的分水岭?你预计大规模应用的到来节点是?

尤洋:我觉得现在国内的AI Infra公司都不太成熟。不是说大家技术不好,是因为国内好像没有OpenAI这样一家独一档的公司。从最开始百度发布自己的大模型工具到AI六小龙,去年豆包,现在DeepSeek、通义、元宝,不止AI Infra,整个AI赛道的企业都在不断地变化,所以不是很稳定。

举一些海外的例子,我们最像的应该是Together AI。其实就是想通过软件优化或者高性能计算,把算力的价值发挥到更高。算力本来能卖100万,能不能通过算力优化把它卖出130万、150万的价值。本质上就是结合用户去开发私有模型、行业模型,来做这件事情。

我觉得大语言模型这块的AI技术和软件,其实通过全世界的努力,已经做的相对成熟了,所以未来大模型的增长点肯定是在多模态模型或者世界模型,视频大模型是它们的核心。

这也是潞晨跟其他AI Infra企业还有一个比较大的不同,就是有自研的视频模型。

凤凰网科技:从最早做算力优化,到推出训推一体机,再到视频生成模型,你怎么思考潞晨这些不同业务之间的逻辑?

尤洋:其实是一脉相承的,最开始做算力优化的软件,然后结合算力做云和一体机,再加上算法和数据进一步做模型。

凤凰网科技:潞晨是怎么规划视频大模型业务的?

尤洋:首先,我们第一步还是想自己完整地训一个这样的模型,把它部署起来。这样我们未来面临世界模型、多模态模型的时候,我们的基础设施是完善的。

第二,我们发现视频大模型本质上就是一个算力优化的生意。因为它的算力成本比较高,一个很短的视频可能就会涉及几百万个token。

如果有 A和B两个模型,A模型可能跑分上比B模型高15%,生成的视频质量更高,但很可能比B模型慢了十倍。最终我可能花十分钟用B模型跑出来一个视频,用A模型可能得一个多小时。那这种情况下,即便模型更好,用户可能也会选择耗时最短的。比如抖音的爆发,用户上传的大量内容也没有达到电影级别的质量,用普通的手机/相机拍摄已经足够。

所以它就变成一个算力优化、加速的工作了。未来3到5年,视频大模型为核心的多模态、世界模型会不断地发展变大。这个过程中,最重要的就是算力优化,要考虑如何去提升训练、推理效率,降低开发、推理成本,这就是AI Infra厂商最应该关注的事情。

第三,它为什么很符合AI Infra厂商的调性。因为视频大模型输出的是一个作品,它不是一个低延时高交互的东西,我只需要提交一些脚本式的任务需求。比如我想要一个发在抖音上一分钟的短视频,让达芬奇和蒙娜丽莎一起去迪拜购物中心购物吃饭,我提交完了之后就可以去吃饭或者去公园散步,它过一两个小时之后把这个视频做好。这就变成一个纯粹的算力优化、加速的工作了,我觉得比较适合AI Infra厂商去做。

对于AI应用,目前基于相对成熟的LLM做的APP已经很多,加上MAAS提供了廉价方便的API,开发相关应用的难度和成本已经降低了非常多,比如最近爆火的Manus。但目前Agent的模式和最终能力还是受限于背后的模型能力。我觉得LLM现在很多agent(智能体)的东西,其实在模型质量提升了之后,就不用靠人工做那么多的业务流来搭建了,很多AI都可以直接搞定。

凤凰网科技:能不能分享一些Open-Sora目前的进展?

尤洋:其实自研视频模型就相当于我们最大的私有化模型,在国内市场做大模型私有化+一体机的生意。比如说我在国内做了十个模型私有化单子也就两千万,已经算不错了。但是我现在把这一个视频大模型做好,我可能一年就收获四千万,相当于它是一个很大型的项目。

我觉得这是一个很好的时机,因为视频大模型还没有头部语言模型那么大,我不需要投入几亿美金才能开始去做这个事情。如果这个时候能够尽早布局、抢滩登陆,我觉得还是有机会的。如果现在去自研Llama、DeepSeek这样的,我感觉已经不太可能有商业机会了。

现在视频大模型的质量还不够好。即便某个厂商现在声称自己的视频大模型是最好的,我相信一个成熟的广告工作室也不可能完全用视频大模型的生成内容替代大部分工作,或者去拍《阿凡达》、《泰坦尼克号》这样的电影。

现在视频大模型的存在感仍然还不够高,肯定会非常关注要持续提升视频质量。但是现在每提升一点视频质量,代价往往是要增长数倍的计算量和成本。视频模型对算力的要求是非常高的,对算力优化的需求也比LLM(大语言模型)更高。

潞晨的优势是性价比更高,同等预算情况下,它可以做到是最好的。模型质量不差,但肯定不是跑分最高的,参数量比别人小三倍、五倍。

我们刚刚开源了Open-Sora 2.0——全新开源的 SOTA(State-of-the-Art)视频生成模型正式发布,仅用 20 万美元(224 张GPU)成功训练出商业级 11B 参数视频生成大模型,性能直追 HunyuanVideo 和 30B 参数的 Step-Video。权威评测 VBench 及用户偏好测试均证实其卓越表现,在多项关键指标上媲美动辄数百万美元训练成本的闭源模型。此次发布全面开源模型权重、推理代码及分布式训练全流程,让高质量视频生成真正触手可及,进一步提升视频生成的可及性与可拓展性。

我们也在此基础上进一步做了闭源模型的商业化产品Video Ocean,生成质量和速度更好,大家可以免费体验。

凤凰网科技:今年大家都在喊视频大模型的商业化元年,你觉得哪些公司更有可能跑出来?

尤洋:我觉得要做视频大模型要有几点优势,第一个就是数据上的优势,第二个是算法上的优势,第三个优势是算力优化上的优势,可能还有个优势就是产品力上的优势。

字节或者快手这样的大厂,它的优势主要是第一点和第四点:数据量很大,也能做出飞书、剪映、抖音这种级别的产品,产品力方面肯定是非常强的。

我觉得像我们这样的公司,优势肯定就是第三点的算力优化上。再一个本身我们帮客户去交付私有模型、行业模型的时候,对算法也是需要非常了解的,否则我们无法把它做成标准化的东西,所以第二点也是有优势的。

那如何去应对我们在第一点、第四点的劣势?首先,我们其实也通过合法手段购买收集了很多带版权的数据,我感觉这个阶段其实是够的。因为数据量从10亿到100亿,如果都是差不多的视频内容和模式的话,提升也不是太大。在私有化交付时,因为是使用客户的私有数据,所以在数据上的差距也不会特别大。

第四点,我们的劣势是产品力方面的。作为一个To C或者To开发者的产品,我们是肯定不可能做得过抖音、快手这种级别的App。他们经验非常丰富,那我们就把自己的目标定得清晰一点。

我们的视频大模型就是一个虚拟相机,而不是剪映。因为现在我要在抖音上发一个视频的话,也是先用相机拍出原始的视频素材,再用剪映等工具去加工。我现在就细分到一个点,就要做虚拟相机,用大模型生成原始视频素材。后边工具链的内容,我先不要太关注,否则什么也做不好。

凤凰网科技:DeepSeek的爆火对你们的训推一体机业务有什么影响?

尤洋:确实带动了显著带动了许多需求,都在推进中。

凤凰网科技:去年你们的一体机卖了快3000万,今年有什么样的目标?

尤洋:翻倍,比如年初DeepSeek的火爆,带动了大量新需求。DeepSeek模型也比较大,需要的硬件支持和优化手段也更多。

凤凰网科技:潞晨在去年10月刚完成A++轮融资,近期又有了一轮亦庄国投的钱进来,目前你手里是不是又有了新的TS,你还会在近期开启下一轮吗?

尤洋:我们融资还挺顺利的,3年多已完成6轮融资,投资方都是大家耳熟能详的名字。手里已有多个TS,欢迎感兴趣的投资方详聊。

凤凰网科技:你规划中的潞晨未来会按照什么样的节奏发展?

尤洋:我们的营收过去几年都实现了高速的增长,肯定是达到了我们的预期,也确实给客户带来了价值。在保持现有业务增长的基础上,下一步值得完善的就是我刚才说的视频大模型、多模态大模型。如何让它快速进入用户真正的业务场景里边,实现未来基于视频、多模态大模型的一些应用,是我们未来重点关注的。我们要把潞晨的市值做到 200 亿到 300 亿这个量级,然后上市。目标非常量化也很明确,就是达到 20 亿的收入。

来源:凤凰科技

相关推荐