百度发布文心X1.1深度思考模型:多个基准测试达到SOTA

B站影视 港台电影 2025-09-09 20:19 2

摘要:百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰于9月9日在WAVE SUMMIT深度学习开发者大会上正式发布了文心大模型X1.1深度思考模型。同时,百度还公布了文心和飞桨的一系列技术、产品、生态最新成果。

在事实性、指令遵循、智能体等能力上均有显著提升。

据IPO早知道消息,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰于9月9日在WAVE SUMMIT深度学习开发者大会上正式发布了文心大模型X1.1深度思考模型。同时,百度还公布了文心和飞桨的一系列技术、产品、生态最新成果。

文心X1.1深度思考模型上线

多个基准测试达到SOTA


据王海峰现场介绍,文心大模型X1是基于文心大模型4.5训练而来的深度思考模型,升级后的X1.1主要采用了迭代式混合强化学习训练框架,一方面通过混合强化学习,同时提升通用任务和智能体任务的效果;另一方面通过自蒸馏数据的迭代式生产及训练,不断提升模型整体效果。相比文心X1,X1.1的事实性提升34.8%,指令遵循提升12.5%,智能体提升9.6%。


在多个权威基准评测中,文心大模型X1.1整体表现超越DeepSeek R1-0528,在部分任务上展现出领先优势。同时,在与国际顶尖模型GPT-5和Gemini 2.5 Pro相比,效果持平。



目前,用户可以在文心一言官网、文小言APP使用文心大模型X1.1。文心大模型X1.1已正式上线百度智能云千帆平台,对企业客户及开发者全面开放使用。


当然,文心大模型的能力拓展和效率提升,得益于飞桨文心的联合优化。大会现场,百度还发布了飞桨核心框架v3.2,在大模型训练、硬件适配和生态支持上全面升级,并同步升级大模型开发套件ERNIEKit和高效部署套件FastDeploy。


据最新数据披露,飞桨文心生态开发者达到2333万,服务企业达到76万家。

开源ERNIE-4.5-21B-A3B-Thinking

轻量化模型推理能力再升级


此外,百度正式开源最新的思考模型ERNIE-4.5-21B-A3B-Thinking。


据介绍,ERNIE-4.5-21B-A3B-Thinking采用了混合专家(MoE) 架构,总参数规模达210亿,每个token激活30亿参数,通过指令微调及强化学习训练。ERNIE-4.5-21B-A3B-Thinking 是在ERNIE-4.5-21B-A3B基础上训练的深度思考模型,该模型支持128K的上下文窗口,适用于需要长上下文的复杂推理任务。该模型不仅在逻辑推理、数学、科学,代码与文本生成等需要人类专家的任务上实现了显著提升,还具备高效的工具调用能力,能够支持复杂任务的自动化处理。


ERNIE-4.5-21B-A3B-Thinking 模型以Apache License 2.0协议开源,允许商业使用。该模型已在HuggingFace、星河社区等主流开源社区同步发布,FastDeploy、 vLLM、Transformers 等开源工具已经实现了对该模型的支持,可以直接加载模型并使用。其中,FastDeploy提供一键部署能力,支持单张加速卡运行,方便用户快速开展推理服务。


ERNIE-4.5-21B-A3B-Thinking作为一款 21B 总参数量,激活仅3B的轻量级模型,在各项测试中的表现紧追业界顶级大尺寸模型,以轻量级规模实现了接近SOTA的智能表现。



公开资料显示,6月30日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源。目前,文心开源系列模型已在行业中得到广泛应用。


本文为IPO早知道原创

作者|Stone Jin

来源:IPO早知道

相关推荐