摘要:据《2024中国企业AI大模型应用现状》调研报告显示,AI大模型落地总体上仍处在探索孵化阶段,渗透率不足1%,但在已部署大模型的企业中,超半数企业感受到了大模型落地带来的业务价值。
大模型竞争下半场,全栈能力将成关键看点。
作者丨刘伊伦
编辑丨包永刚
落地大模型的速度和质量正成为企业在智能化浪潮中抢占产业制高点的关键胜负手。
据《2024中国企业AI大模型应用现状》调研报告显示,AI大模型落地总体上仍处在探索孵化阶段,渗透率不足1%,但在已部署大模型的企业中,超半数企业感受到了大模型落地带来的业务价值。
割裂感充斥在这场智能化变革之中:一端是洞察价值的企业持续加码投入,另一端则是受限于技术、资金与人才的企业,无奈将技术浪潮视为“行业泡沫”。二者间存在的认知差距与行动鸿沟,折射出大模型落地从“试点红利”迈向“普惠深水区”的行业阵痛。
技术断层与能力失衡,则是横亘在企业智能化转型路上的双重障碍。不具备技术能力的企业面临桎梏,而具备一定研发实力的企业,也难以规避单一能力短板引发的“木桶效应”。
某大型集团曾斥资3000万下场研发企业大模型,重金聘请技术专家,却因技术落地难、数据隐私风险及商业模式模糊等问题,一年内耗尽预算,项目最终搁浅。
实践表明,企业大模型落地需要与拥有全栈大模型技术基因的产业专家深度协作。在大模型中标项目数、行业覆盖数、央国企中标项目数三个维度皆“领跑”的百度智能云,正是企业大模型落地的产业专家。正如百度集团执行副总裁沈抖表示,百度智能云系统级智能基础设施正助力企业大模型高效落地。
全栈基础设施作为大模型落地的刚需底座,通过自研芯片、算力调度、模型训练及应用部署的技术闭环,百度智能云正解决企业从 “模型可用” 到 “业务见效” 的多个障碍。例如,百度智能云与招商银行合作推进大模型落地,以昆仑芯 P800芯片为底层算力支撑,结合千帆大模型平台与招行具体业务场景,在智能客服、多模态数据分析等领域落地实践。
大模型竞争下半场,全栈能力将成关键看点。百度如何打造从底层硬件、算力优化、模型技术到应用落地的全栈服务能力?其产业落地成效又如何?
01算力资源利用率提升50%,百舸平台释放昆仑芯性能
“我们自主可控人工智能技术走在央企前列。”南方电网公司数字化部副总经理余芸表示。
据悉,南方电网研发的电力行业大模型“大瓦特”聚焦电力行业应用场景,通过整合电网运行数据、设备状态信息、行业知识规则等,提升电力系统的智能化水平。其中, “南网调度值班助手” 可秒级生成故障处置预案,识别效率是传统算法的10倍;变电站巡检机器人将人工6小时的巡视任务自动化,准确率显著提升。
而效率跃迁的背后,离不开百度智能云全栈算力能力的深度支撑。
昆仑芯P800芯片作为“大瓦特”的算力底座之一,采用了完全自研的XPU-P架构,仅需32台服务器即可完成千亿参数模型的全参数训练,帮助南方电网在大模型训练上显著降低了成本。
“AI芯片是高度敏感的硬件。随着集群规模扩展,故障率会呈指数级上升。这个难题,即使是全球最领先的芯片厂商,也无法避免。”沈抖说,“在硬件之上,必须有一套强大的软件平台,保障集群的稳定运行。”
百度智能云混合云总经理杜海同样认为,获得行业重要客户的信任,基础能力是关键因素。对于集群稳定性以及使用效率的关注,已经成为了行业的新趋势。
国内具备万卡集群建设能力的公司屈指可数,能同时兼具高效算力统筹与算力优化能力的企业更是凤毛麟角。这类企业不仅需要突破芯片性能、集群架构等硬件瓶颈,还需在算力调度算法、资源利用率优化、多模态任务适配等软件层面实现深度创新。
凭借全栈自研能力,百度成功点亮自研三万卡集群。自研驱动的模式消除了硬件、软件与生态融合的壁垒,使昆仑芯算力集群成为性能领先的单体集群。沈抖表示,这是国内首个如此大规模采用昆仑芯P800和海光CPU全国产方案的集群。
当算力集群规模触及当前技术边界时,拥有强大的软实力才能发挥出硬件的潜能。百舸平台是支持一云多芯及国产开源模型的算力管理平台,其可以有效提升集群训练推理效率,保障集群稳定性的同时,突破利用率瓶颈。
“百舸平台是百度自主研发的核心组件,百舸4.0支持多种异构芯片、不同的高速网络互联技术,以及高性能存储和相关存储架构技术。”杜海说,“在这之上,我们通过全套云原生组件解决通信问题,百舸平台不仅支持单一的英伟达芯片或昆仑芯,还能兼容多种芯片的不同通信协议与算力规则,实现统一调度。”
目前,百舸平台实现了超高的稳定性,3万卡集群有效训练时长占比超95%,且具备秒级故障感知与定位能力,通过自动回滚机制可快速恢复集群运行,保障了业务的无间断。同时,百舸平台创新性采用混合云形态进行集群交付与运营,通过全局优化计算节点和存储资源,资源利用率提升50%,大幅降低算力成本,提供“快、稳、省”的算力服务体验。
集群利用率方面,百舸平台已具备成熟的10万卡集群部署和管理能力,且在万卡集群上实现了99.5%以上的有效训练时长,能够将不同的芯片混合训练大模型的效率折损控制在5%以内,达到业界最领先的水平。
“最能打动客户的,正是百舸平台把集群稳定性以及算力利用率不断调至更优状态。”杜海说,“百舸平台的设计理念是从应用、模型、框架到芯片,自上而下地将四层体系深度融合,只有这样端到端的体系,才能让集群效能最大化。”
百舸平台的兼容性与自主性也非常出色,得益于百舸平台践行的“一云多芯”策略,除昆仑芯外,还适配多种主流国产芯片,满足企业在不同算力架构下的自主部署需求,让客户的算力选择自主可控。
在算力选择自主可控的基础上,百舸平台还具备对不同规模算力的兼容性。杜海表示,百舸平台支持在一体机部署轻量化版本(百舸 Lite);同时,针对百卡、千卡等不同集群规模,平台提供差异化的集群化组网方案,确保业务开展过程的平滑性。
在对AI部署非常关键的模型支持方面,百舸平台向上适配主流大模型框架,对包括DeepSeek在内的国产开源模型的训练与推理均表现稳定且性能优异。以DeepSeek R1满血版为例,基于百舸+昆仑芯的方案,昆仑芯P800单机8卡配置可实现2437tokens/s吞吐,而百舸DeepSeek一体机在支持500人团队并发使用时,推理延迟平均在50毫秒以内。
02开发超100万个企业级AI应用,千帆平台正在成为「智能体」工厂
昆仑芯与百舸平台的深度协同,为大模型提供了直接的硬件支撑与平台保障。在此前提下,一站式企业级大模型平台千帆为大模型能力的整合和场景落地提供有力支撑。
4月25日的Create2025百度AI开发者大会上,文心大模型4.5 Turbo及文心大模型X1 Turbo正式发布。
文心4.5 Turbo作为多模态大模型,源自文心4.5,大幅提升了跨模态学习效率及多模态融合效果,多模态理解效果提升超过30%,在多个测试集上追平甚至部分超越了OpenAI的旗舰模型GPT-4.5。
文心X1 Turbo则是基于文心4.5 Turbo的深度思考模型,侧重于深度思考,尤其擅长推理和工具调用,具备更先进的思维链,在问答、创作、逻辑推理、工具调用和多模态能力上均有进一步增强。在信通院最近公布的大模型推理能力评估中,文心 X1 Turbo的综合评级获得了当前最高级“4+级”,是国内首款通过该测评的大模型。
基础模型具备强大的性能是落地应用的必要条件,而非充分条件,由于“通用”与“专用”的先天隔阂而导致落地效果大打折扣,只有足够“懂业务”的大模型才能够深入行业深水区。正如沈抖所言,基础模型能力再强,放到具体的行业场景中,效果往往不达预期。
基于对行业大模型落地的深刻理解,百度首次发布金融行业大模型“千帆慧金”,该模型基于海量金融语料深度训练,构建金融专用合成数据管线,优化算法策略,并提供知识增强大模型和推理增强大模型两类模型,每类模型分别提供8B和70B两个版本,支持最长32K上下文输入,覆盖金融行业多数场景。
在金融领域Benchmark评测中,千帆慧金金融大模型综合表现领先,百亿参数模型得分超过千亿参数的通用模型。在金融销售赋能场景中,相比通用模型,千帆慧金金融大模型能更完整地列出贷款材料清单、拆解工作流程,并明确风险管控要点,展现出深厚的行业知识与推理能力。
对于智能体的落地,强大的模型固然重要,但让更多企业负担得起、用得起来,才是推动普及的关键。
文心4.5 Turbo以及文心X1 Turbo均已上线千帆平台并对外提供服务,在千帆平台上,文心 4.5 Turbo的百万token价格仅为DeepSeek V3调用价格的40%,而文心X1 Turbo价格只有DeepSeek R1的四分之一。
除文心大模型外,千帆平台还提供超过100个模型服务,市场上效果好的模型,都可以在千帆上找到。除模型服务外,千帆平台还提供模型开发、应用开发的全套工具链,在应用开发方面,千帆平台已累计帮助用户开发出100多万个企业级应用。
经过大量落地案例积累与多次技术迭代,千帆平台已成为功能完备、高效易用的 “智能体工厂”。企业可直接调用百度提供的成熟智能体,包括行业智能体,以及智能客服、内容审核等通用智能体,快速开发并构建智能体生态。
伴随着大模型部署进入深水区,千帆平台在智能体开发领域也将进一步向行业广度与企业深度延伸。
未来,企业既可通过A2A等协议调用集团内部及上下游合作伙伴的第三方智能体,打通跨组织业务流并以最优策略协调智能体分工协作;也能开发企业自有智能体,通过MCP协议连接企业内部服务,激活过往数字化积累的 IT 与数据资产,让智能体成为企业业务流程的有机组成部分。
而千帆平台支持所有市场上主流大模型的策略,也让企业在智能体开发过程中,能将自身的业务匹配到合适的模型,并且企业还能根据千帆平台上真实的用户反馈对模型进行微调,提升智能体的落地效果。
此外,千帆平台的能力还支持“私有化部署”, 模型以及工具的更新都将在一周内上架到千帆平台上。
03全栈自研,百度智能云跑通AI落地的「最后一公里」
从硬件基础设施到模型及应用开发平台,百度智能云在不断探索及夯实智能化转型的全流程,提供了从算力、模型开发、应用开发以及数据管理的全套人工智能基础设施,与企业沉淀的行业数据资源相结合,真正跑出能落地、能够深入行业的模型及智能体。
超65%央企选择与百度合作探索智能化转型之路,而百度智能云也以行业场景为锚点,打造深入行业的智能体矩阵。
“轻量定制行业智能体,正在成为大模型产业落地的最快路径。”沈抖说,“它会根据场景的特点,选择合适的大、小模型,并给出最佳的协作方式;通过知识库等方式激活企业的专属数据,拓展智能体的专业知识;还可以根据业务流程要求,自动编排任务;同时与企业现有系统打通,实现从数据到应用的闭环。”
由人民日报文化传媒、百度公司联合主办的 “2025 智能经济论坛”全新发布了 “精选行业场景智能体家族”,包含能源、医疗、交通、政务等领域,覆盖B端企业、C端用户及G端政务场景,推动AI从通用技术向行业生产力转化。
企业办理用电相关业务效率低?百度智能云营销供电方案智能体让业务办理提质增效。
传统的供电方案制定工序繁琐,需填报上百项数据并经过多个部门进行勘查,办电效率低下容易影响企业正常经营活动的开展。为此,百度智能云联手国家电网推出“营销供电方案智能体”,通过多轮对话识别需求、大模型自动生成方案并动态调整优先级,实现客户办电效率的提升。
“智能体已经全面掌握了整套流程,能准确地调动行业知识和工具系统,实现企业办电流程的全面智能化。”沈抖说。
在医疗领域,百度智能云的智能体致力于提升患者的就医体验。
2024年上海市公立医疗机构病人满意度调查显示,在2224人次的门诊病人反馈意见中,31.74%的改善意见与 “等候和排队时间” 有关,门诊等候时间位居门诊病人改善建议的前列。
对此,百度智能云推出智慧就医智能体,在就诊前便通过大模型收集病情信息,并利用多模态语义融合解析技术,自动生成患者“病情卡”。这一功能落地武汉协和医院,病情卡加上专家模型判断患者是否符合加号要求,审核准确率达95%以上,并节省专家筛选时间85%以上。
而在和民生密切相关的的政务领域,百度推出的行业智能体同样让业务的开展提质增效。
公路交通事故的发生往往会引发系列的连锁反应。相关研究表明,当车辆驶入饱和状态的道路,会使其他所有车辆速度降低约0.7%,这种 “蝴蝶效应” 在高峰期可能让整体通行时间延长20%以上。
百度智能云推出的公路应急指挥智能体嵌入“事件感知-事件播报-应急处置预案生成-预案选择-预案执行-处置结束”全流程,将检测准确率提升到95%以上,让监控人员介入处置的工作量降低50%。利用大模型实现部门及设备联动,并生成应急处置报告,实现突发事件应急响应效率提升30%。
环境管理是绿色及可持续发展的核心,而智能化则让环境管理变得高效。沈抖表示:“今天,AI 正在让生态环境的监测和治理变得可感、可行。”
百度智能云联手中国环境监测总站打造生态环境监测智能体,依托环境监测总站高质量的环境监测数据,面对复杂的气候条件,能生成环境质量分析报告并出具精准预测,其在空气质量问答、水监测站点信息问答、污染源答疑等场景下回答准确率超95%,为环境管理决策提供数据支撑。
百度智能云“全栈自研”的智能基础设施,直击人工智能时代算力与算法面临的瓶颈,通过昆仑芯芯片与百舸平台构建高效算力底座,依托文心大模型探索算法创新边界。在此基础上,百度智能云深度融入行业场景,背靠企业的高质量数据资产,让智能化转型发生。
受AI驱动,百度智能云业务在2025年第一季度增长强劲,同比增速达42%。
“这是一场长期的接力。我们会坚定投入,打造更先进、高效的人工智能基础设施,服务更多的中国企业,加快推动大模型产业化发展,释放更多场景价值。”沈抖说。
全栈自研的技术实力以及持续投入的决心,将让百度在智能涌现的时代不缺席。来源:雷峰网leiphone