未来 AirPods 要读唇语!动嘴不发声也能切换歌曲

B站影视 韩国电影 2025-06-04 15:10 1

摘要:苹果最近的一项新专利显示:未来的 AirPods 可能拥有通过激光读唇语的功能,你不用出声,甚至不用动手,光靠嘴唇动一动,耳机就能秒懂你的需求!

苹果最近的一项新专利显示:未来的 AirPods 可能拥有通过激光读唇语的功能,你不用出声,甚至不用动手,光靠嘴唇动一动,耳机就能秒懂你的需求!

苹果这项专利的名称叫做 “可穿戴设备的皮肤振动或无声皮肤手势检测器”。说起来很绕口,其实就干一件事:用激光捕捉用户的嘴唇以及脸颊的微小动作,甚至皮肤的振动,把这些无声信号变成控制指令

一、苹果对无触控交互的执念
AirPods 的交互方式升级

苹果执着探索各种 “无触控” 的交互方式,比如肢体动作操控、眼控操作、脑控操作等等。2024 年,AirPods Pro 就通过识别头部的大幅动作实现了 “点头接电话、摇头挂电话” 的功能 。

但苹果这个新专利,直接把 “识别” 属性的精度拉满,从摇头点头的大动作,进化到 “抿嘴、微笑、轻声低语” 的微动作。甚至,你只需要 “动了动嘴唇” 不用出声音,AirPods 也能 “看” 懂你想干啥。

二、核心技术
激光 + 干涉测量,连皮肤的 “小抖动” 都能抓

AirPods 实现 “读唇语” 主要靠两个关键技术:

(1)硬件:VCSEL 激光发射器(和 Face ID 同款),AirPods 内部会装一个微型激光发射器,向你的耳朵或脸颊发射一束光。

(2)算法:自混合干涉测量法,激光发射一束光,照向你的耳朵或脸颊皮肤,说话、抿嘴时皮肤和肌肉会发生细微的抖动,同步反射回来的光也会 “抖”,传感器通过分析光的 “抖动”,就能识别出你具体做了什么动作,精准到 0.1 毫米的肌肉颤动都能捕捉到。路边同学考虑的是,这个会不会误判呢?

三、两大实用场景
无声操作 + 防被冒名

这项技术最实用的是解决了用户生活中的两个 “使用场景痛点”:

1. 无声操作:不说话也能控制耳机

现在通过 AirPods 进行控制操作,要么需要用手按耳机,要么喊 Siri。这些操作在很多场景不太适应,比如路边同学洗碗的时候就没有办法用手操作;比如在图书馆的时候就没有办法对着空气说 “hi Siri”。这个时候,你就需要 “无声操作” 了。在图书馆,抿嘴切歌;开会时,动动嘴暂停播客;哄娃时,不出声调音量。

这个操作是不是很 nice !

2. 语音验证:防止 “被冒名”,安全更升级!

现在用 Siri,别人喊 “嘿 Siri” 也能唤醒你的设备。但未来,AirPods 会 “双重验证”,先听到你说 “播放音乐”,再用验证你的嘴唇、脸颊有没有同步动作,只有 “声音 + 动作” 都对上才执行指令。

四、从专利到落地
苹果技术伏笔的坑又深了

苹果的专利的最大特点就是 “画大饼”,看上去非常的吸引人。但路边同学也一直提醒大家,苹果的专利从书面到落地,往往需要很长时间,甚至是很多专利永远没有机会见到用户。

这次 “读唇语” 技术需要两个落地条件:第一,硬件成熟(成本),这个没有问题,VCSEL 激光发射器已经用在 Face ID、Apple Watch 上了;第二,用户对 “无接触操作” 的需求越来越高(市场)。

参考之前 “点头摇头” 功能从专利到量产用了 5 年(2019 年专利,2024 年落地),这波 “读唇语” 可能最快 2027 年出现在新款 AirPods Pro 或 AirPods Max 上。

从 “用手按” 到 “用头动”,再到 “用嘴说(不出声)”,AirPods 的交互方式越来越 “隐形”。目前,苹果的无触控操作方式已覆盖语音、手势、头部动作、眼动追踪、脑机接口等多个维度。这些技术不仅为大众用户提供了更自然的交互方式(如驾驶时语音控制、运动中手势切歌),更是能够服务于特殊人群,提升这些人群的生活质量。

从苹果申请的专利也可以看到,其正在通过 “软件 + 硬件 + AI ” 逐步构建起一个多模态、无感化的人机交互生态。

你期待这样的 “读唇语” AirPods 吗?评论区聊聊你最想用它实现的 “无声操作” !

来源:路边同学一点号

相关推荐