摘要:高通CEO阿蒙在骁龙峰会上高调展示的DeepSeek模型,确实颠覆了传统AI模型的部署逻辑。该模型通过模型蒸馏技术压缩参数规模,同时保持推理、编程等核心能力,甚至在某些任务中超越早期云端大模型。例如,其数学解题能力对标OpenAI的先进模型,而体积仅为传统模型
高通CEO阿蒙在骁龙峰会上高调展示的DeepSeek模型,确实颠覆了传统AI模型的部署逻辑。该模型通过模型蒸馏技术压缩参数规模,同时保持推理、编程等核心能力,甚至在某些任务中超越早期云端大模型。例如,其数学解题能力对标OpenAI的先进模型,而体积仅为传统模型的1/10,这得益于DeepSeek团队的多阶段训练策略和强化学习优化。
阿蒙强调,这类小模型可直接在骁龙平台的终端设备上运行,实现“数据本地化处理”,既保障隐私安全,又将延迟降低至毫秒级。这一技术路径验证了高通“端侧AI”战略的可行性,也为智能手机从“工具”向“智能体”转型铺平道路。
高通的硬件优势与DeepSeek的算法创新形成强力互补:
1. Hexagon NPU与Oryon CPU:高通自研的Hexagon神经处理单元专为低功耗AI推理设计,算力密度比传统GPU更高,而Oryon CPU架构则通过30%性能提升和57%功耗降低,为终端AI提供强劲算力支持。
2. MLA+GRPO算法突破:DeepSeek的“多头潜在注意力”架构(MLA)优化了资源分配,而“群体相对策略优化”(GRPO)算法通过强化学习提升模型效率,两者结合使小模型在有限资源下实现性能飞跃。
实测显示,搭载骁龙8 Gen3的手机运行AI绘图软件时,速度提升200%,这得益于硬件与算法的协同优化。高通AI Hub平台已集成DeepSeek等模型,开发者可快速调用适配,推动应用生态爆发。
阿蒙预言的“终端AI革命”已在多个领域显现苗头:
汽车:高通与宝马、通用等车企合作,将AI模型嵌入车载系统,实现实时路况分析和多任务语音交互。例如,车载AI可同步处理导航、儿童安抚指令,甚至预测机械故障。
工业物联网:工厂设备通过本地AI实现99%的故障预测准确率,减少千亿级维修成本。这一场景依赖终端低延迟响应,云端方案难以满足实时性需求。
空间计算:高通与谷歌、三星合作的MR眼镜,通过端侧AI渲染虚拟场景,延迟低于10ms,为元宇宙体验提供硬件基础。
数据与场景优势:中国9亿月活终端设备每天生成海量数据,覆盖从短视频特效到无人配送等多元场景,为AI模型训练提供“天然实验室”。
生态共建能力:高通与DeepSeek共建的AI Hub平台已吸引超10万开发者,60%的创新模型来自中国企业。这种“硬件开放+算法开源”的模式,加速技术商业化落地。
政策与产业链协同:中国政府对AI终端产业的扶持,叠加制造业供应链优势,使技术从实验室到量产周期缩短50%。
争议与挑战:终端AI的“理想与现实”
尽管前景光明,终端AI仍面临两大争议:
1. 生态重构阻力:小米、vivo等厂商担忧AI重构APP生态会冲击现有商业模式(如应用商店分成),更倾向于渐进式改良而非颠覆。
2. 用户接受度:部分用户认为当前AI手机功能仍是“噱头”,如三星的“即圈即搜”和OPPO的“AI消除”并未显著改变使用习惯。
对此,阿蒙回应称:“终端AI的终极目标是让技术隐形化。当AI能无缝理解并执行复杂指令时,用户将不再需要手动操作APP。”
结语:超级计算机“口袋化”倒计时
高通与DeepSeek的合作,不仅是一次技术联姻,更是全球AI产业链分工的重构。中国在数据、场景和制造端的优势,叠加美国在芯片与算法基础研究的积累,正催生一个“去中心化”的AI新时代。正如阿蒙所言:“2026年,你的手机将比今天的云端更聪明”——这场革命,或许将重新定义人与机器的共生边界。
文章亮点与数据支持
技术细节:模型蒸馏、MLA/GRPO算法、Hexagon NPU等术语均源自高通技术白皮书及DeepSeek开源文档。
行业影响:汽车、工业、元宇宙案例引用自高通峰会演讲及行业分析报告。
争议视角:OEM厂商对AI生态的保守态度,参考了腾讯科技对终端厂商的调研。
大家觉得呢?
来源:一木千禾