摘要:在万众瞩目的凌晨时分,苹果公司如期拉开了全球开发者大会(WWDC)25年的序幕。然而,今年的WWDC对苹果而言,承载了不同寻常的意义,它不仅是技术创新的展示平台,更是苹果面对外界对其AI能力质疑的一次回应。
在万众瞩目的凌晨时分,苹果公司如期拉开了全球开发者大会(WWDC)25年的序幕。然而,今年的WWDC对苹果而言,承载了不同寻常的意义,它不仅是技术创新的展示平台,更是苹果面对外界对其AI能力质疑的一次回应。
回顾过去一年,市场对苹果的AI技术寄予厚望,期待在WWDC24上见证革命性的AI体验。然而,现实却不尽如人意,Apple Intelligence的进展缓慢,频繁跳票,让外界对苹果的AI能力产生了广泛质疑,甚至出现了“苹果AI无力回天”的论调。在这样的背景下,WWDC25的到来显得尤为关键。
今年的WWDC首日主题演讲中,苹果明显转变了策略,不再像去年那样描绘Apple Intelligence的宏伟蓝图,而是选择在系统底层和基础功能上完善、扩展AI应用。虽然缺乏惊艳的突破性进展,但对第三方开发者及应用生态而言,却带来了不少积极的变化。
苹果软件工程高级副总裁Craig Federighi在演讲一开始就明确,生成式AI化的Siri还需等待来年。那么,在这次WWDC25上,苹果究竟分享了哪些AI方向上的新动态呢?
苹果在AI策略上显然采取了更为稳健和保守的路线,不再追求引人注目的创新,而是将AI更务实地整合到操作系统和第一方应用中,同时更大程度地向第三方开发者开放“设备端模型”。这一转变,对于渴望看到苹果AI大放异彩的投资者、媒体和用户来说,或许有些失望。
然而,从现实角度来看,苹果这一策略无疑是明智的。在演讲中,苹果详细介绍了覆盖全部操作系统的全新翻译功能,支持电话、FaceTime、Message及苹果音乐等应用,并推出了新的翻译API。这一功能无疑将吸引第三方开发者尝试并应用在自己的APP中,虽然翻译效果仍是开发者选择的关键。
AI也首次渗透到了苹果生态的开发端,Xcode引入了Vibe Coding,并支持包括ChatGPT在内的不同模型。在智能视觉方面,苹果也带来了更新,iOS新增了视觉智能功能,可以分析iPhone屏幕上的内容,类似于Google Gemini的圈选搜索。然而,这些功能似乎都依赖于ChatGPT的支持,包括Image Playground也支持了ChatGPT的图像生成。这不禁让人担忧,苹果在自主训练大模型和多模态方面还需更加努力。
苹果还继续兑现了一些去年承诺的AI功能,如watchOS的Smart Stack(智能堆叠),基于AI预测用户需要的小部件。而之前传闻的“AI引入快捷指令”,实际上是以Intelligence actions串起“聚焦”+“快捷指令”。整体来看,Apple Intelligence并没有带来太多惊喜,但也避免了后续的惊吓。
尽管如此,苹果的执行力仍然是关键。按照给出的时间表,新系统的第一个开发者Beta版本已在当日推送,公测版从7月开始,最终将在9月推出正式版。对于苹果AI而言,时间紧迫。
值得注意的是,苹果AI目前仍存在“画小饼”的可能,尤其是对于国内用户来说,Apple Intelligence至今仍未上线。苹果在WWDC25上还宣布了Apple Intelligence将在今年内推出繁体中文支持,但简体中文的支持时间仍取决于审核进度,苹果并未给出明确时间表。
同样令人失望的是新版Siri的再次跳票。苹果在去年就承诺推出生成式AI化的Siri,但现实却是一次又一次的推迟。按照演讲中的最新消息,新版Siri至少还要等到明年。这一消息无疑让苹果AI战略中的尴尬更加凸显。
然而,苹果在AI时代的优势仍然不容忽视。即便当前功能不算抢眼,但其底层能力仍具备明显差异化优势。一方面,苹果坚持的“设备端AI”策略在隐私担忧日益严重的时代显得尤为突出。通过利用小型AI模型在设备本地处理数据,苹果旨在确保用户隐私和高效处理的兼顾。另一方面,苹果再次展示了跨系统的生态能力,从基础AI能力全线打通各大操作系统,再到提供给第三方开发者相应的API,这是其他厂商都还做不到的。
苹果还宣布了全生态操作系统的“统一”设计升级,从iOS到tvOS。这一设计升级旨在减少用户的认知负担,使得跨设备的AI功能感觉更直观、更协调、真正集成。这不仅意味着visionOS的设计风格趋近,更可能是苹果为更深层次、更普遍的AI集成做好整个生态系统的准备。
总的来说,WWDC25或许在AI上没有带来太多惊喜,但苹果至少走在了正确的道路上。在模型始终无法取得重大突破的情况下,苹果选择将AI通过深层集成、开发者赋能的方式,真正落地到用户的实际体验之中。这一策略虽然不求惊艳,但求实用,或许能为苹果在这场AI马拉松中积蓄力量,调整姿态。
来源:ITBear科技资讯