字节跳动与科大讯飞:大模型之战的AB面

B站影视 2025-01-15 18:44 2

摘要:百川智能转向了行业大模型;月之暗面和MiniMax的战略优先级是C端产品和应用;零一万物采取了“大厂+小虎”的合作范式,它将超大模型交给阿里训练,自己负责小参数、适中的行业模型;智谱AI和阶跃星辰,则仍然聚焦AGI大模型。

文/陈锋

编辑/子夜

走过近两年的竞速赛后,中国大模型赛道正加速迎来分化。

分化首先体现在大模型初创公司的路径选择上。2024年,一度吸引了更多公众关注的“大模型六小虎”,开始走向不同的方向。

百川智能转向了行业大模型;月之暗面和MiniMax的战略优先级是C端产品和应用;零一万物采取了“大厂+小虎”的合作范式,它将超大模型交给阿里训练,自己负责小参数、适中的行业模型;智谱AI和阶跃星辰,则仍然聚焦AGI大模型。

从这个侧面看中国大模型产业,一个越来越清晰的事实是,“百模大战”正加速退潮,从初创企业到大公司,几乎所有的玩家都在思考:在大模型和AI的浪潮中,自己应该承担怎样的角色,技术该如何更好落地、该聚焦国内市场还是出海,以及如何创造出差异化价值。

而无论是To C还是To B,面向2025年,业界已经达成了新的共识——接下来,大模型将继续走出同质化,进入到既拼技术实力、也拼落地进展、还拼商业化的阶段。

基于2024年的市场表现来看,字节跳动和科大讯飞,是两个值得重点讨论的样本。

字节跳动过去一年在C端表现抢眼,呈现出后来者居上的姿态。现在,全球范围内,从月活规模看,豆包App已经成为仅次于OpenAI的ChatGPT的AI应用。

另一边,科大讯飞在To B赛道呈现出了领跑之姿。

第三方机构智能超参数发布的《中国大模型中标项目监测报告(2024)》指出,2024年,在通用大模型厂商中标排行榜中,科大讯飞以91个中标项目、披露中标金额84780.8万元,排名第一,成为2024年度标王——从披露的中标金额来看,它是百度的两倍、智谱AI的八倍。

图源智能超参数

在这背后,作为中国大模型产业如今分别在C端和B端的领头羊,他们走过的路都不轻松,但都具备一定的启示意义。

大模型的两条赛道上,

科大讯飞、字节跳动各自领跑

在大模型赛道上,字节跳动入局不算早,但发展速度很快。

据DataEye研究院不完全统计,2024年8月至今,字节跳动在AI领域一共推出了包括豆包大模型家族在内的17款大模型、2个智能体开发平台。

字节旗下更多的C端AI应用也在加速推出。2024年以来,字节跳动在国内外已经推出了包括豆包在内的20余款App,覆盖了AI聊天助手、AI视频工具、AI娱乐应用、办公等多个领域。

图源浙商证券

这对应的是,字节跳动沿用了过去“大力出奇迹”的战略打法。浙商证券统计,2024年字节跳动在AI上的资本开支达到了800亿元,甚至接近百度、阿里、腾讯的总和(约1000亿元)。

市场研究机构Omdia的研究也显示,字节2024年采购了约23万张英伟达芯片,成为仅次于微软的英伟达全球第二大买家。

在更大力度的投入、更广泛的布局下,字节跳动在这一年里迅速完成了在C端应用上的赶超。

截至11月,豆包App的月活跃用户数已经接近6000万,MAU增速达到了16.92%。

另一个视角里,在较难被普通用户感知到的大模型To B市场,科大讯飞则稳扎稳打,积累起了领先优势。

与字节跳动的“后发先至”不同的是,大模型浪潮袭来以后,科大讯飞某种程度上属于“先发先至”。

2022年底OpenAI发布ChatGPT以后,科大讯飞在大模型布局上快速跟进,并在接下来两年时间里,快速确定了技术思路和技术路线,并完成了多轮技术迭代。

OpenAI发布ChatGPT仅仅半个月后,科大讯飞就已经决定,要把资源压上去做大模型,同时其还提出,做大模型要做“1+N”,“1”是指通用认知智能大模型,“N”是指在教育、办公、汽车、人机交互等各个领域落地。

当时,科大迅飞快速拉通了核心研发平台15个方向的团队,专门成立了大模型专项组,内部又分成四个项目组,分别专注于“算力和训练框架”“数据构建”“推理框架和服务”“算法研发及大模型研制”,科大讯飞研究院院长胡国平后来回忆,“这么大规模的‘会战’在讯飞研究院历史上也是少有的。”

在那之后,科大讯飞的讯飞星火大模型加速迭代。

1月15日,科大讯飞正式发布了星火深度推理模型x1,同时首发了星火语音同传大模型。此外,讯飞星火4.0Turbo的底座能力和行业能力也实现了再次升级。

稍早一些,科大讯飞发布了讯飞星火4.0 Turbo,七大核心能力全面超过了GPT-4 Turbo,数学和代码能力超越了GPT-4o,国内外中英文14项主流测试集中实现了9项第一。

从大模型的落地进展来看,科大讯飞也走在了行业前列。

一方面,如我们上文所述,2024年,科大讯飞是通用大模型厂商中的“标王”;

另一方面,同样在2024年里,科大讯飞的星火大模型还斩获了六项“第一”:央国企中标第一、教育医疗市场第一、智能汽车市场第一、大模型开发者生态第一、智能硬件市场第一、赋能科研应用第一。

由此不难发现,经过两年的跑马圈地后,在To C和To B这两条路线上,行业格局已然明晰——字节跳动和科大讯飞,率先跑在了前列。

“中标”背后,

科大讯飞和字节跳动如何解题?

客观来看,无论是字节跳动在大模型C端应用上的“逆袭”式反超,还是科大讯飞在B端的落地探索,都不轻松。

对To C的大模型应用而言,首先是推理成本高,紧接着厂商在考虑产品市场匹配度时,要考虑到技术需求、技术难度和成本等因素,还需要把握时间窗口,此外在探索商业化路径时,相比国外,国内用户的付费意愿也相对较弱。

也就是说,想要做出一款好用的、用户爱用的大模型应用,意味着更高的投入成本,以及不确定的回报周期,这也是为什么,这两年很多大模型创业公司都将视角转向了海外。

如何持续吸引到新用户,并提升用户留存率,则是另一重挑战。

从字节跳动在大模型领域的积极布局来看,它显然希望自己能成为做出更多爆款应用的先行者,潜在机会也更大。

一来,字节跳动不缺资金、不缺技术、不缺人才、也不缺投入的决心;

二来,字节跳动早些年在移动互联网时代成功To C的经验,如今也成了它的差异化优势。比如比起竞争对手们,字节有更丰沛的流量能够支撑应用的快速起量。

最后,现在的字节对用户需求也在变得更加敏锐,反应速度也变得更加敏捷了。

12月11日,据媒体报道,字节提升了即梦的产品优先级,尝试用新的路径打造AI时代的“抖音”——即梦AI隶属于字节跳动旗下剪映业务,定位是AI内容平台,支持通过自然语言及图片输入,生成高质量图像及视频。

据悉,字节计划后续把更多资源向更多模态的产品形态转移,即梦会承担更大的希望。

再来看B端。如今大模型的竞争已陆续进化为体系之战——要构建起一个企业真正能用的大模型,需要具备构建算力、数据治理、模型训练、场景落实、应用搭建、持续运营、安全合规整套能力,还要会打造各种标准化软件产品,比如数字人、客服助手、代码助手等,以及场景落地中的软硬结合产品。

简单来说,大模型在B端的落地,难就难在“交付”,需要大模型厂商首先成为一个“六边形战士”。

从企业的视角来看,现阶段大家对大模型的诉求也在变得更加务实,不仅关注模型技术的领先性,也要看如何融合到业务场景,如何降本增效解决实际问题。

图源《2024 中国行业大模型市场报告》

科大讯飞的解题路径,为我们提供了一个透视大模型落地B端的观察窗口。

“为什么我们中标数量第一,而且中标比例越来越高?因为很多企业只能做到第三步即训练模型,后面的几步与我们差距很大,即使能做到,他们实际上整理数据和训练模型的能力,与我们差距也很大。”科大讯飞创始人刘庆峰此前如此表示。

这对应的是,科大讯飞为企业大模型构建提供了顶层规划到执行落地的全套解决方案:“建算力、理数据、训模型、落场景、保安全、精运营”。

在算力层面,2023年时,科大讯飞和华为联合做了中国第一个万卡算力集群“飞星一号”,在昇腾910B的基础上,攻克了诸多疑难杂症,解决了500多次基础软硬件问题、模型适配问题等,使得大模型训练从对标A100/A800的20%-30%提升到了90%以上。

2024年10月,科大讯飞联合华为、合肥市大数据资产运营有限公司打造的国产超大规模智算平台“飞星二号”,也正式启动,将带来新模型新算法的持续适配,以及智算集群规模的再次跃迁。

刚刚发布的深度推理模型X1,正是基于“飞星一号”打造了完全适配华为昇腾算力的深度推理模型训练框架,突破了树搜索加速、异步推理调度等技术难题,用更少算力实现了业界一流效果,多项指标国内第一,是国产算力集群对标英伟达集群的又一关键里程碑。

在“理数据、训模型”层面,科大讯飞完整的工具链也大幅提升了效率——数据清洗效率提升了24倍、数据构建效率提升了90%、场景优化的平均效果提升了30%、知识采编效率提升了5倍。

再到更关键的行业场景落地中,截至2024年10月,科大讯飞已经与各头部企业共建了20多个行业大模型,覆盖了超300个应用场景。

刘庆峰还提到,这些已经落地的实际应用案例,已经形成相互借鉴和复用的规模效应,“每个企业搭建后,我们都会找到很多可复用的给其他企业。很多央国企头部企业在这个行业做完后,可推广给全行业,也可以在不同行业相互借鉴。”

由此可以预见,讯飞星火大模型在B端的落地,某种程度上像是星星之火,从长远视角来看,或将为科大讯飞带来更充足的想象空间。

商业化大考在即,

领跑者加速迈向“正向循环”

大模型竞速赛走到现在,另一个越来越清晰的事实是,淘汰赛已然陆续上演。

这一背景下,无论是To C市场还是To B市场,在日益白热化的市场竞争中,领先者持续维持竞争优势、追赶者抹平分差奋起直追的路径,基本只有一条:

保持在技术侧的敏锐度,在迭代和升级速度上打“持久战”,做好大模型技术与应用、场景的融合。

这也正是科大讯飞和字节跳动正在做的事情。

前段时间的科大讯飞全球1024开发者节期间,除了发布讯飞星火4.0 Turbo外,科大讯飞还首发了10项基于讯飞星火底座能力的产品与创新应用:

包括定义了多模AIUI标准,发布超拟人数字人,发布星火多语言大模型、讯飞星火医学影像大模型、汽车端侧星火大模型,等等。

再到1月15日,科大讯飞又迎来了多项新的技术升级。

它发布了星火深度推理模型X1,是当前业界全国产算力平台上唯一的深度推理模型。此前X1参加了小初高(含竞赛)、大学(含竞赛)、AIME、MATH500多多项考试,交出了亮眼的成绩单:用更少的算力,达到业界一流效果,多项指标国内第一。

此外,科大讯飞也发布了国内首个具有端到端语音同传能力的大模型——星火语音同传大模型。

星火语音同传大模型支持不同时延的翻译模式,在长达5H的音视频测试中,8s时延模式在内容完整度、信息准确度等评价维度超过了谷歌的Gemini2.0、OpenAI的GPT-4o等国外主流大模型。

基于不同行业龙头企业的落地诉求、C端2亿多用户的真实反馈,讯飞星火4.0 Turbo也进行了新一轮升级,在七大核心能力上实现了全面提升。

其中,讯飞星火4.0 Turbo升级版的文本生成能力提升了3.2%、语言理解能力提升了4.5%、知识问答能力提升了4.7%、逻辑推理能力提升了2.6%、数学能力提升了10.5%、代码能力提升了3.5%、多模态能力提升了1.6%。

此外,在长文本能力和图文能力上,讯飞星火也进行了升级,还首发了混域知识搜索技术——无论个人知识、企业知识、业务系统数据、精品行业数据,还是互联网信息,一次提问,可以拿到综合搜索后的结果,信息搜索的效率实现了极大提升。

可以看到,基于底座能力的持续升级,科大讯飞在B端不同行业不同场景的落地广度还在拓宽,深度还在延展,价值也在持续释放。

在医疗行业,基于讯飞星火医学影像大模型打造的智能医学影像助手,在智能质控环节能帮助影像技师快速评估图像质量,及时纠正问题;在智能诊断环节,能帮助影像医师快速生成诊断报告;在智能读片环节,也能通过相关问答,帮助临床医师制定诊疗方案。

在司法场景里,法律大模型能赋能庭审笔录制作、裁判文书编写、法条类案检索等司法场景,和星火通用大模型相比,效率提升从61.7%提升到了87.9%。

这一过程中,科大讯飞对大模型落地路径的长远规划,也想得更清楚了。

比如在让大模型的能力更好落地上,刘庆峰此前表示,“今天是一个通用模型和专用模型相结合、端侧模型和云端模型相结合、软件和硬件相结合的、全新的大模型落地时代。”

比如它不仅仅是希望自己能够成为大模型浪潮中走得走快的一家,也希望帮助更多企业走的更快。首个同传大模型助力中国企业出海,就是一个鲜明的例子。

字节跳动当下正加速构建的,某种程度上也是这样一条“正向循环”的未来路径——

通过更大规模、更大决心的投入,推动大模型技术的快速迭代与升级,进而赋能到C端用户、B端客户,哪怕C端用户的回报周期相对较长,但用耐心换取未来,再用商业化反哺技术投入。

而在技术这一基石之上,字节跳动做C端应用的逻辑,与科大讯飞深入B端的逻辑,本质上是相似的——科大讯飞在努力离客户更近、字节跳动在努力离用户更近。

这种做产品和服务的姿态,是字节跳动几乎只用半年时间就后来居上的根源,也是科大讯飞“领先一步,超前一路”的根源。

来源:连线Insight

相关推荐