摘要:靠着姗姗来迟的Apple Intelligence,苹果在这一轮人工智能浪潮里终于摆脱了观众的身份。然而作为Apple Intelligence核心的“更个性化Siri”却可能要难产了。本月初,长期关注苹果的彭博社资深记者马克·古尔曼爆料称,苹果方面正努力重塑
靠着姗姗来迟的Apple Intelligence,苹果在这一轮人工智能浪潮里终于摆脱了观众的身份。然而作为Apple Intelligence核心的“更个性化Siri”却可能要难产了。本月初,长期关注苹果的彭博社资深记者马克·古尔曼爆料称,苹果方面正努力重塑Siri的进展可能并不顺利,或许要到2027年iOS 20发布时才会带来“真正现代化的对话式Siri版本”。
身为“苹果专家”,马克·古尔曼的爆料一如既往的精准。日前苹果方面也已经确认,新版个性化Siri的更新将比预期更晚推出,计划在“明年内”上线,但并未透露确切时间表。紧接着有传言称,在近期召开的内部会议中,苹果Siri团队主管Robby Walker承认,Siri关键功能的延迟“丑陋且令人尴尬”,并指出过早宣传未完成的技术进一步加剧了这个问题。
“更聪明的Siri”,正是苹果去年推出Apple Intelligence时重点宣传的功能,比如用户召唤Siri分析屏幕上的内容、精准地控制应用。然而当Apple Intelligence正式在iOS 18上出现后,更能够体现Siri比以往更聪明的案例,基本都需要调用ChatGPT来实现。其中一个典型场景,就是当用户召唤出Siri时,Siri往往会主动询问用户是否要调用ChatGPT帮忙。
一个更聪明、更个性化的Siri,难道需要依靠ChatGPT来支撑?这或许是相当多用户体验过Apple Intelligence之后的感受。然而现实是用户不再满足于一个只能求助“场外援助”的Siri,而是希望它能够像ChatGPT一样,回答复杂问题或是提供更具创造性的互动能力。
在苹果的设想中,未来的个性化版Siri可以协助用户处理日常工作,能够通过更自然的对话支持跨应用操作。可要知道,当下消费者对于AI手机的认知其实是非常割裂的,尽管确实有部分消费者对AI手机跃跃欲试,但有更多的人则认为,手机上的AI功能“几乎没有增加任何价值”。
手机上的AI功能在提升使用体验上毫无实质性帮助,这一点绝对不是苹果方面希望看到的,所以他们也迫切地希望AI能够成为消费者购买iPhone的心动理由。这也就能解释,苹果为何会承认在WWDC24上展示的Siri新功能仅为“半成品原型”,远未达到成熟标准。而将未成熟的技术作为Apple Intelligence的卖点,也就导致了后续的口碑反噬。
一直以来,苹果的策略是等到技术成熟后再进行应用,用CEO库克的话来说就是“Not first,but best”,他们并不会盲目追逐市场上的每一项新技术,而是会在技术成熟和稳定后,再以自己的方式将其融入到旗下的产品中。然而在Gen AI(生成式人工智能)上,苹果方面却十分罕见地急于求成了。
遥想2019年的苹果财报电话会议,针对彼时手机圈的热点5G技术,苹果的管理层认为5G还处于“初期阶段”,没必要急于推出5G手机。后来的事实也证明了他们的正确性,由于拥有品牌忠诚度和用户基础,确实也做到了不依靠5G也能吸引和留住用户。
那么问题就来了,为何到了Gen AI上,苹果的态度就变成了“此一时彼一时”。其实答案很简单,因为相比属于通信技术的5G,改变人机交互范式的AI才是彻底改变手机行业游戏规则的一项技术。然而现实却是当AI技术革命爆发时,苹果并非参与者、而是旁观者。
急于追上友商的进度,这就是当时苹果要将尚不成熟的新Siri推送给用户的原因。当然,先提前一个超前的概念、再把它变成真的,这也是美国科技圈的常态,如若不然,“Fake it until you make it”也不会成为硅谷创业者的格言。只可惜,苹果这一次并未如期带来真正的个性化版Siri。
问题出在哪里呢?从某种意义上来说,苹果其实是有点作茧自缚了。作为一个全球性的消费电子企业,苹果面向的消费者群体不仅有说英语的英美用户,还有说西班牙语、葡萄牙语的拉美用户、说汉语的中国用户、说斯瓦西里语的非洲用户、说阿拉伯语的中东用户。
需要支持多种语言,就导致Siri在自然语言理解(NLP)上面临着巨大的难题,让Siri对话更自然背后无疑是海量的工作,而这都需要时间。同时苹果方面对于“Control (控制)”的痴迷,导致大型开发者对他们若即若离,小团队则缺乏资源来满足苹果的合规需求,又使得Siri对第三方应用的适配进展缓慢。
当然,拖累苹果打造个性化版Siri的最大痛点,是这家公司在隐私保护问题上毫不妥协的立场。苹果方面不仅声称在训练基础模型时不使用个人数据或用户交互,还坚持尽量在本地设备运行AI、以保护用户隐私。而在整个Apple Intelligence中,Siri无疑是接触用户隐私最多的功能,它的屏幕感知能力、跨应用操作都无可避免地要使用到用户的隐私数据。
以苹果方面在WWDC24主题演讲中展示的询问”妈妈的航班几点降落”为例,此时Siri提取妈妈的航班信息不仅要识别亲属称谓,还要访问用户的邮件数据、以排除历史航班记录,并实时查询航班动态。可现实情况,却是如果不访问用户的隐私数据,个性化版Siri几乎可以说是无稽之谈。
可如果要在端侧运行个性化版Siri,以目前设备的端侧算力,以及苹果端侧大模型Apple On-Device都有力未逮。毕竟上一个宣称运行在Apple On-Device上的新闻摘要功能,已经让Apple Intelligence陷入了非议。
所以苹果既要坚持隐私保持立场,又要让Siri成为“最佳虚拟助手”,这才是他们陷入困境的主要原因。毕竟鱼与熊掌现阶段还不可兼得,苹果最终还是要做出选择。
来源:三易生活