摘要:去年这个时候,也是在 HDC,华为公布了HarmonyOS NEXT 系统、 NEXT 原生应用和盘古大模型 5.0等一系列重磅内容。也正式开启了原生鸿蒙登台亮相之后的发展道路。
编辑|郑玄
北京时间 6 月 20 日下午,还是在老地方松山湖,华为一年一度的开发者大会 HDC 2025 正式拉开帷幕。
去年这个时候,也是在 HDC,华为公布了HarmonyOS NEXT 系统、 NEXT 原生应用和盘古大模型 5.0等一系列重磅内容。也正式开启了原生鸿蒙登台亮相之后的发展道路。
这条道路显然险象丛生,即使是余承东也在主题演讲中承认(鸿蒙)生态构建难度「超乎想象」,但这对华为来讲显然也已经是那条注定的道路。
虽然很难,但过去的 635 个日夜,确实让原生鸿蒙的整体「版图」展现出雏形:尤其是华为 Pura X 以及 MateBook Fold 这样在产品形态上就已经做出明显突破的原生鸿蒙产品问世,更是在今年将原生鸿蒙的硬件生态推向高潮。
01 HarmonyOS6 发布
作为承接今年上半年大量原生鸿蒙硬件正式落地的下一步,华为将「纯血鸿蒙」的第一个大版本迭代——HarmonyOS 6.0 开发者 Beta 版,带到了台前。面向开发者的 Beta 测试版也于即日起正式发布。
如果说「互联」是鸿蒙从诞生之初就刻在 DNA 里的核心优势,那么鸿蒙 6.0 的野心,显然是在这张「王牌」上继续加注,意图彻底砸碎设备与设备之间的那堵「墙」这种「无界感」落实到用户体感上,就是一种近乎直觉的设备流转。
在演讲中,余承东重点介绍了现在鸿蒙生态中已经相对成熟的流转能力,例如在手机上用酷狗音乐捕捉到一首宝藏歌曲,当你坐到电脑前打开,媒体就能直接流转到笔电上无缝衔接,无需任何多余操作。这种深入系统底层的「跨端接力」,是目前 iOS 和 Android 生态都难以复刻的「肌肉记忆」。
除此之外,已经被超过 9000 个应用接入的「碰一碰」能力,在鸿蒙 6.0 中也解锁了更多玩法。它不再仅仅是功能的触发,更像是一种社交语言和效率工具的融合,例如你不仅能「一碰」分享相册里的多张「赛博记忆」,还能和朋友「一碰」拉起游戏开黑,甚至是手机触碰鸿蒙笔电屏幕,就能触发跨设备的「文件空投」。更关键的是,这个能力已经向生态伙伴开放,WPS、剪映、美图秀秀这些国民级 App 的加入,让「碰一碰」的边界再次拓宽。
当然,在一个愈发透明的数字世界里,安全感是构建一切智能体验的基石。鸿蒙在隐私与安全这道「必答题」上,也交出了一份更全面的答卷。
基于「星盾安全架构」,华为打造了一套主动式的防御体系。它不再是被动地「查杀」,而是从源头对应用进行「净化」。官方数据显示,这套体系每月能成功拦截约 1600 万次恶意应用的「渗透」,累计格挡了 80 亿次不合理的权限索取。这背后,是华为对用户隐私权的尊重和技术承诺。
AI 也没有缺席。AI 防窥保护、AI 主动防诈这些功能,让系统本身具备了更强的风险预判能力。同时,华为选择将超过 20 项星盾安全能力开放出来,赋能给对安全等级要求极为严苛的金融与政企场景,其 CCEAL5+ 的认证,也足以证明其「堡垒」级别的防护水平。
02 更深入系统的鸿蒙智能
从 HarmonyOS 6.0 发布的功能其实也能看出,鸿蒙早已不再满足于做一个传统的「操作系统」,它亮出了新的身份标签——一个能够为第三方应用注入 AI 能量的「系统底座」,一个被重新定义的「AI OS」。
随着 2024 年「AI 把所有 App 重做一遍」成为共识,到 2025 年,「用 AI 重做手机操作系统」也已经逐步落地,前有苹果在 WWDC 上公布大模型能力框架,现在不到一个月后的鸿蒙也光速跟进,发布了在鸿蒙生态下的智能体框架 HMAF。
鸿蒙口中的「智能体」定位是基于手机端侧 AI 算力,实现全方位的存在:能跨应用、跨设备,理解你的意图,帮你规划决策,还能直接上手干活。想象一下,它就像一个真正懂你的助理,能无缝调度操作系统、所有 App 包括云端的各种服务,来搞定一件复杂的任务。
为了让这个构想落地,鸿蒙智能体框架 HMAF(Harmony Agent Framework)分为应用和智能体层、协议层和平台层,目的只有一个:让开发者能轻松、高效地为自己的应用「注入灵魂」,打造出强大的智能体。
在平台层,华为开放了「小艺智能体」这个核心枢纽。它不只是个语音助手,更是一个能力开放平台,直接提供了50+鸿蒙系统级的插件,还兼容行业通用的 MCP 工具,让开发者不必从零造轮子,就能快速实现智能体的开发和协同。
鸿蒙的终极目标,是让每个 App 都内嵌一个 Agent,成为系统原生智能的一部分。
听起来很玄?其实入口就在你手边。你可以长按屏幕下方的导航条,直接唤醒和当前 App 场景相关的智能服务;当然,更直接的方式是动动嘴,喊一声「小艺」,一句话就能让智能体帮你搞定一切。
首批上线的50+个鸿蒙智能体,已经开始让这种体验变得具体。
比如,听播客的「喜马拉雅智能体」,你可以跟它用自然语言对话,让它按你的喜好定制一期专属播客;选择困难症患者的福音——大众点评「点仔」,不仅能帮你找餐厅、划重点总结用户评价,甚至能根据你的口味和就餐人数,直接甩出一份推荐菜单。
更复杂的任务也一样。对着「深圳航空智能体」说一句话,订票、退改、挑选最合适的航班,这些过去需要反复点选操作的流程,现在一步到位。
当前关于 AI 操作系统的一个共识是,AI 要想成为真正的「水电煤」,光有聪明的模型远远不够,一个活跃繁荣的开发者生态才是护城河。
为此,华为几乎是「保姆式」地构建了一整套面向 AI 开发者的工具链与分发机制,比如让程序员直呼「真香」的 AI 编程助手DevEco CodeGenie。它肚子里装着鸿蒙的知识库和系统语义,能帮你续写代码、定位 Bug,甚至直接生成 UI 界面。新浪新闻、58 同城这些国民级应用都已经率先尝鲜。
鸿蒙的统一编程模型,则让「一次开发,多端部署」的理想照进了现实。蜻蜓 FM 的工程师,只用了不到 20 个小时,就让应用完美适配了手机、折叠屏、电脑、平板等多种设备,其中90%的代码可以直接复用。
更深的开发流程变革,发生在系统底层。华为选择和微信、快手、抖音这些头部玩家一起「共建」底座 AI 能力。举个例子,鸿蒙的HDImageViewer直接让微信里看大图的渲染性能飙升 4 倍;ArkData 向量数据库则让智能问答和摘要功能可以在手机本地跑起来,既保护了用户隐私,又为开发者省下了一大笔云端算力的开销。
这种把 AI 能力「基建化」的思路,正在让系统的原生智能变得随处可用。当你的车开进加油站,摄像头自动识别油枪并完成人脸支付,全程无需掏手机;当你停车时,系统主动弹出计费信息——所有这些看似「魔法」的体验,背后都是底层技术的演进。
华为把 3D 高斯技术和方舟图形引擎结合,搞出了一个叫Remy的新东西,让你用手机环绕拍一段视频,就能生成可交互的 3D 模型,「留影即拍即成」。而AR Engine则让 QQ 音乐实现了端侧 AI 人声分离,覆盖的曲库量直接翻了 200 倍;B 站和咪咕视频的直播画质,也在方舟图形引擎的加持下清晰了 15%。
此外,一个值得开发者关注的好消息是,原生鸿蒙生态也正式加入了对 MCP 协议的兼容,在这一部分上,原生鸿蒙当之无愧地走在了手机移动操作系统的最前列。
03 结语
说回本次大会的开头,从零构建一个 AI 操作系统生态的难度有多大,其实从余承东上台不到三分钟就吐槽「难度超乎想象」就可见一斑。
但在 AI 操作系统这条路上,总要有人先去啃下最硬的那块骨头。因此华为还是在这次开发者大会上,拿出了包括 HarmonyOS 以及华为智能体框架在内的新成果。甚至包括硬件设备 All in 原生鸿蒙,作为增强开发者信心的「终极武器」。
当许多人还在模型、平台与工具的热潮中逐浪时,鸿蒙选择了一条更难但可能更正确的路:从操作系统底层出发,将 AI 彻底「写入」系统基因,并以此为核心,构建一套难以被复制的生态闭环。
用华为自己的「行业黑话」来讲,这就是形成了「飞轮」,真正开始成为能够影响千万开发者的、比肩 WWDC 或 Google I/O 的平台级开发者大会。
从这个维度看,鸿蒙无疑是起步最早、走得最坚决的先行者之一。它不只是在追赶 AI 浪潮,更是在尝试构建下一个十年的「基础设施」。
本文源自极客公园
来源:金融界一点号