摘要:引入DeepSeek Sparse Attention稀疏注意力机制,在几乎不影响效果前提下大幅提升长文本训练和推理效率;
生成式AI
一、 DeepSeek-V3.2-Exp 发布,训练推理提效,API 同步降价
1. 引入DeepSeek Sparse Attention稀疏注意力机制,在几乎不影响效果前提下大幅提升长文本训练和推理效率;
2. 模型在HuggingFace和魔搭平台开源,同步公开论文及TileLang与CUDA算子代码;
3. 得益于服务成本大幅降低,官方API价格下调50%以上,并保留V3.1-Terminus接口至10月15日供对比测试。
二、 智源开源RoboBrain-X0,零样本跨本体泛化通用小脑基座
1. RoboBrain-X0仅靠预训练即可实现零样本跨本体泛化,一个模型可直接部署在不同厂商、不同结构的真实机器人上;
2. 核心创新在于学习任务"做什么"而非"怎么动",通过统一动作表征体系将复杂动作拆解为标准化token序列;
3. 在真机跨本体评测中总体成功率达48.9%,是基线模型π0的近2.5倍,基础抓放任务成功率达100%。
三、 3D版ControlNet突破多模态控制,混元3D-Omni实现高精度资产生成
1. 混元3D-Omni是业界首个统一多种条件控制的3D生成模型,支持骨骼姿态、边界框、点云和体素四类控制信号;
2. 通过轻量化统一控制编码器和渐进式难度感知训练策略,实现精细化3D资产生成及多模态融合;
3. 能有效解决单视图生成"纸片物体"问题,成功重建几何细节并确保比例与真实物体精确对齐。
四、 GPT-5解决量子版NP难题?半小时内给出有效方案
1. 理论物理学家Scott Aaronson团队证明黑箱方法在量子复杂性理论QMA放大上已达极限,无法进一步降低完整性误差;
2. 在关键技术步骤遇到瓶颈时,GPT-5在半小时内提出了巧妙的数学函数方案,正确指出度有理函数编码最大特征值信息;
3. 该研究给出2008年QMA分离结果的定量版本,证明某条研究路径已走到尽头,但整体问题仍未最终解决。
前沿科技
五、 加州理工团队创量子比特阵列新纪录:6100比特、相干13秒、精度99.98%
1. 加州理工团队创造全球最大中性原子量子计算机,实现6100量子比特阵列,相干时间达13秒(比此前长10倍),单比特操控精度达99.98%,为大型纠错量子计算机奠定基础;
2. 团队使用光镊技术捕获原子并实现量子比特在阵列中移动数百微米且保持叠加态,这种物理可重构性是中性原子系统相比超导电路和离子阱的关键优势;
3. 该成果在规模、精度和相干性三方面取得突破性平衡,巩固了中性原子作为量子计算领先平台的地位,但团队表示仍需完成大规模纠错演示才能实现实用化应用。
报告观点
六、AlphaGo大神发声:2026年是AI广泛融入经济的关键一年
1. AlphaGo核心研究者Julian Schrittwieser驳斥AI停滞论,指出人们忽视了AI从几年前完全无法完成编程、设计等任务到现在已能胜任的巨大进步;
2. METR研究显示AI能力保持指数增长,最新模型已能自主完成2小时以上任务,7个月能力翻倍的趋势持续验证;OpenAI的GDPval评估显示Claude Opus 4.1在44个职业中已接近人类专家水平;
3. 基于现有趋势外推,预测2026年中期模型可自主工作8小时,年底前在多行业达到专家水平,2027年底将频繁超越专家,2026年将成为AI广泛融入经济的关键转折年。
七、Flash Attention作者最新播客:英伟达GPU统治三年内将终结
1. 英伟达GPU主导地位将在2-3年内被打破,随着针对不同工作负载的专用芯片出现,市场将从90%集中度转向多元化生态,AMD等厂商在推理端已显现优势;
2. 推理成本已下降100倍且未来有望再降10倍,主要得益于MoE架构、模型量化(从16位降至4位甚至更低)、算法与硬件协同设计等技术突破;
3. AI应用将分化为三类工作负载:传统聊天机器人、极低延迟场景(如代码辅助)、大规模批处理,硬件供应商需针对性优化,而代理型应用和实时视频生成被视为下一波杀手级应用。
👇加入AGI数据库,AI智能问答
👇订阅下方合集,获取每日推送
来源:腾讯研究院