摘要:11月13日,2025百度世界大会上,百度正式对外发布原生全模态大模型文心大模型5.0。该模型参数量达2.4万亿,采用原生全模态统一建模技术,具备全模态理解与生成能力,支持文本、图像、音频、视频等多种信息的输入与输出。
“我们正跨越一个全新临界点,从‘智能涌现’走向‘效果涌现’。”在2025百度世界大会上,李彦宏的这句话成为百度AI战略落地的核心注脚。
11月13日,2025百度世界大会上,百度正式对外发布原生全模态大模型文心大模型5.0。该模型参数量达2.4万亿,采用原生全模态统一建模技术,具备全模态理解与生成能力,支持文本、图像、音频、视频等多种信息的输入与输出。
整体看下来,当大模型技术从实验室的参数竞赛走向产业界的价值创造,百度以文心大模型5.0、昆仑芯、萝卜快跑等一系列成果,勾勒出“效果涌现”的实践路径,技术突破不再是孤立的亮点,而是转化为重构业务、激活产业、普惠社会的系统性力量。
技术底座:“分域精研”到“融合破壁”?
“效果涌现”的本质,是打破技术领域的“孤岛效应”,实现从“分域精研”到“融合破壁”的跃迁。
百度CTO王海峰强调的文心大模型5.0“统一自回归架构原生全模态建模”,正是这一理念的技术具象化。此前业界多数多模态模型采用“后期融合”模式,即先对文本、图像等单模态数据分别训练,再通过额外模块拼接特征,这种“分而治之”的路径虽能实现单点优化,却难以突破模态间的语义鸿沟。
而文心5.0从训练源头就将多模态数据“合而为一”,2.4万亿参数的超大规模与超稀疏混合专家架构形成“精专与高效”的平衡——既让每个“专家模块”专注于特定模态的精研,又通过统一架构实现跨模态特征的深度协同。
这种“分合之道”的价值在实践中愈发清晰,在广告创意生成场景中,文心5.0能基于文本需求直接输出符合品牌调性的视频脚本与画面分镜,其视频生成效率较传统“文本建模+图像生成+视频拼接”的分步骤模式提升300%;在智能客服领域,它可同时处理用户的文字咨询、语音诉求与图片反馈,意图识别准确率突破98%。正如权威评测显示,其多模态理解能力比肩国际顶尖模型,图像视频生成能力媲美垂直专精模型。
李彦宏所言“技术迭代速度是唯一护城河”,恰是对这种“分域深耕基础上的融合创新”的最佳注解——唯有让各模态技术从“独立赛跑”变为“协同作战”,才能构筑起“效果涌现”的技术高地。
业务重构:“分线需求”到“全域内化”
“效果涌现”的核心标志,是AI从满足“分线业务需求”的工具,升级为“全域业务内化”的基因。
百度对搜索的激进改造,正是这一转变的缩影。过去,搜索、文库、网盘等业务线对AI的需求相对独立:搜索需要更精准的文本理解,文库侧重文档解析,网盘聚焦内容分类。这种“分线索取”模式下,AI能力难以形成协同效应。
如今,百度将文心大模型的全模态能力“合入”各业务肌理,搜索端70%的首条结果实现富媒体覆盖,用户搜索“如何制作咖啡”时,不仅能看到文字步骤,还能直接观看3D动画演示与数字人实操讲解;文库上线“AI全文创作”功能,用户输入主题即可生成包含图表、公式、参考文献的完整文档,文档处理效率提升400%;网盘的“智能分类+内容摘要”功能,让亿级用户的存储内容实现自动标签化与快速检索。
这种“分线到全域”的渗透,背后是李彦宏“倒金字塔”产业结构的生动实践,底层统一的文心大模型如同“智能引擎”,为各业务线提供标准化却又可定制的能力输出,避免了重复研发的资源浪费;而各业务线的“分域反馈”又反哺模型迭代,形成“合-分-合”的正向循环。
GenFlow 3.0成为全球最大通用智能体、海外平台Oreate短时间收获120万用户的成绩,正是这种模式的成果,当AI不再是某条业务线的“专属工具”,而是整个生态的“通用语言”,“效果涌现”便从单一业务的优化,升级为整个企业的效率革命与价值重构。
前沿应用:“场景细分”到“能力复用”
在垂直应用领域,“效果涌现”呈现为“场景细分”与“能力复用”的辩证统一,既针对不同场景的“分域痛点”提供精准解决方案,又通过底层技术的“合域复用”实现指数级价值放大。
百度萝卜快跑的发展路径极具代表性,在城市出行场景中,它针对不同城市的交通规则、路况特点进行“分域训练”,如在北京重点优化复杂路口的通行策略,在广州强化雨雾天气的感知能力;但底层的自动驾驶算法、多传感器融合技术却实现“全域复用”。这种模式下,萝卜快跑不仅达成全球出行服务超1700万次、每周全无人订单破25万的成绩,更在深圳、重庆等城市实现“分钟级响应”的全无人运营,交通拥堵率在运营区域降低15%。
数字人与智能体领域同样遵循这一逻辑。慧播星数字人针对电商直播、企业培训、政务服务等“细分场景”开发定制功能——双11期间,它为美妆品牌提供“虚拟试妆+实时互动”的直播方案,开播数增长119%,GMV提升91%;为政务大厅打造“24小时智能导办”数字人,办事效率提升60%。而这些场景背后,共享着文心大模型的自然语言交互、情感计算等“合域能力”。自我演化智能体“伐谋”更是“分合共生”的典范:它既能针对供应链优化、城市规划等“分域问题”构建专属模型,又能通过进化算法的“合域框架”快速适配不同场景,实现“发现人类未察觉的全局最优解”的突破。
在消费级智能硬件领域,超能小度的发布则将“场景细分+能力复用”的逻辑推向新高度。
作为百度AI生态在硬件端的重要载体,超能小度依托文心大模型5.0的全模态能力,实现从“语音助手”到“多模态伙伴”的进化,其底层统一的多模态感知交互架构融合文字、声音、图片、视频、手势识别是“合”的基础,而在AI眼镜、智能摄像机、音箱等不同硬件场景的定制化功能则是“分”的落地。
以小度AI眼镜Pro为例,它复用文心大模型的视觉理解与推理能力,针对“解放双手记录”场景开发“语音唤醒拍照备忘”功能,用户说“帮我记一下停车位”即可自动生成带位置信息的备忘;针对“会议效率”场景,即将上线的“AI会议纪要”能将板书拍照与录音转写自动匹配,甚至分析会议争议点与行动建议;与网易云音乐联合打造的“氛围歌单”,更是通过视觉场景识别生成专属BGM,实现“所见即所听”的沉浸体验。
而在家庭看护场景中,搭载超能小度的智能摄像机C1200则展现了“分域痛点精准击破”的能力:传统摄像机“能录不能懂”,它却通过文心大模型的行为识别能力,推出行业首创的“AI随心看护”,家长可自定义“宝宝学步提醒”“孩子写作业走神预警”“宠物拆家干预”等场景,当触发预设行为时,不仅能主动推送通知,还能联动全屋设备进行语音播报干预;“智能寻物”功能更解决用户高频痛点,询问“遥控器放哪儿了”,即可回溯24小时视频定位物品最后出现位置。
这种“底层能力复用+场景功能细分”的模式,让超能小度在AI助手硬件角逐中拿下关键分,也印证了“效果涌现”在消费端的落地逻辑——当统一的AI能力与细分的用户需求深度耦合,硬件设备便从“执行工具”蜕变为“主动思考的伙伴”。
这种“一核多支”的应用模式,让“效果涌现”不再受限于单一场景,而是形成跨领域的价值辐射。
后记:“个体创新”到“协同共生”
“效果涌现”的终极命题,是从“企业单打独斗”走向“生态协同共生”,让“分域的个体创新”汇聚成“合域的社会红利”。
百度的实践逻辑清晰可见,通过开放核心能力,降低AI创新的门槛,让每个参与者都能在生态中找到自己的“分域定位”,同时共享生态的“合域价值”。连续三年举办的“文心杯”创业大赛,累计提供数亿元资金支持,孵化出近百家AI创业企业,有的聚焦工业质检的“细分场景”,利用文心大模型的图像识别能力开发缺陷检测系统;有的深耕教育领域,基于其多模态生成能力打造智能教学助手。这些“个体创新”如同生态中的“毛细血管”,让AI技术渗透到产业的每个角落。
生态的“合”不是对“分”的否定,而是让每个创新主体的“分域优势”得到最大发挥,百度提供底层技术与算力支持,合作伙伴专注场景需求与应用落地,形成“百度搭台、伙伴唱戏”的协同格局。当这种“分合共生”的生态规模达到临界点,“智能红利”便会转化为“社会红利”。
来源:咫尺观察
