摘要:这一推测的核心依据在于大会日程安排——第二天专为开发者设置的3场会议,其标题均明确提及“Meta将于9月18日发布新的开发者工具包”。更值得关注的是,这三场会议的主持人背景,均与Meta智能眼镜及相关开发领域深度绑定:第一场由产品经理LansingLee主持,
Meta Connect 2025的议程透露出明确信号:一款针对智能眼镜的SDK(软件开发工具包)或将很快与开发者见面。
这一推测的核心依据在于大会日程安排——第二天专为开发者设置的3场会议,其标题均明确提及“Meta将于9月18日发布新的开发者工具包”。更值得关注的是,这三场会议的主持人背景,均与Meta智能眼镜及相关开发领域深度绑定:第一场由产品经理LansingLee主持,其LinkedIn个人简介明确标注“助力企业将应用接入雷朋Meta等AI智能眼镜”;第二场主持人Valentina Chacón Buitrago则有Meta已停产的Spark AR开发平台的参与经历;第三场主持人Conor Griffiths的领英信息更直接指向核心业务——负责“雷朋Meta与Oakley Meta眼镜同外部的软件集成”,同时主导“外部合作伙伴为Meta未来可穿戴设备开发AR与AI内容”。
无独有偶,在议程细节曝光前数日,CNBC曾报道称Meta已启动对第三方开发者的对接工作,邀请其为即将推出的、配备sEMG(表面肌电图)腕带的HUD(平视显示)眼镜开发“实验性应用程序”,并特别指出此次开发者拓展“重点面向专注生成式AI的团队”,暗示Meta计划通过这类定制化应用为新品眼镜打开市场。
尽管信号明确,但这款智能眼镜SDK的具体形态仍存悬念。关键制约因素在于Meta现有智能眼镜的硬件局限——雷朋Meta与Oakley Meta HSTN眼镜的机载计算能力十分有限,更接近Fitbit这类穿戴设备,而非具备独立强运算能力的智能手机或XR头显。Meta首席技术官Andrew Bosworth此前也曾多次公开表示,正是这种计算能力的限制,导致传统形态的SDK无法在现有设备上落地。
综合目前信息,行业推测这款SDK的形态可能存在两种核心方向,甚至不排除两者结合的可能性:其一,采用“服务器端驱动”模式,开发者无需针对眼镜本地硬件开发应用,而是为Meta AI构建集成功能——类似亚马逊Alexa Skills的开发逻辑,通过云端算力实现功能落地,绕开设备本地计算能力不足的问题;其二,SDK可能仅针对特定新品设备,即即将推出的配备sEMG腕带的HUD眼镜,以及未来搭载显示屏的Meta智能眼镜。从现有信息来看,这款HUD眼镜具备硬件升级的基础:800美元的定价与70克的重量参数,暗示其计算能力可能较现有产品有显著提升;同时,显示屏的加入与腕带带来的丰富本地输入方式,也能大幅提升开发者的创作空间,让SDK更具吸引力。
而第三种更具可能性的方向是“混合模式”——SDK或许会同时支持两种开发路径:部分应用作为MetaAI的扩展功能在服务器端运行,依托云端算力实现复杂运算;另一部分轻量化、高频使用的功能则支持在HUD眼镜本地运行,通过设备端与云端的协同,兼顾体验流畅度与功能丰富性。
来源:93913虚拟现实