摘要:实时人工智能和实时翻译功能目前仅向meta早期访问计划的成员开放。而Shazam音乐识别功能则已经面向美国和加拿大的所有用户推出。通过Shazam,用户只需简单提示meta AI,就能迅速识别出正在播放的歌曲。
meta公司近日宣布,其雷朋智能眼镜将新增三大功能,旨在进一步提升用户体验。这些新功能包括实时人工智能、实时翻译以及Shazam音乐识别。
实时人工智能和实时翻译功能目前仅向meta早期访问计划的成员开放。而Shazam音乐识别功能则已经面向美国和加拿大的所有用户推出。通过Shazam,用户只需简单提示meta AI,就能迅速识别出正在播放的歌曲。
早在今年的meta Connect 2024大会上,实时人工智能和实时翻译功能就曾首次亮相。实时人工智能功能允许用户与meta的人工智能助手进行自然对话,同时助手还会不断观察用户的周围环境,提供更为个性化的服务。例如,在杂货店选购食材时,用户可以让meta的人工智能根据所查看的食材推荐食谱。
meta表示,在充满电的情况下,用户每次可以使用实时人工智能功能约30分钟。而实时翻译功能则支持将英语与西班牙语、法语或意大利语之间的语音进行实时翻译。用户可以选择通过眼镜收听翻译结果,或者在手机上查看转录文本。不过,用户需要事先下载所需的语言对,并指定自己与对话伙伴所使用的语言。
相比之下,Shazam功能的使用则更为直接。用户只需在听到喜欢的歌曲时,提示meta AI进行识别即可。为了方便用户了解新功能的使用方法,meta还发布了相关演示视频,用户可以在Instagram上观看meta首席执行官马克·扎克伯格的亲自演示。
对于那些尚未体验到这些新功能的用户,meta建议检查眼镜是否已升级到v11软件,并确保meta View应用程序也已更新到v196版本。如果尚未加入meta的早期访问计划,用户还可以通过meta的官方网站进行申请。
值得注意的是,在meta推出这些新功能的同时,谷歌也发布了适用于智能眼镜的新操作系统Android XR,并将其Gemini人工智能助手定位为智能眼镜的杀手级应用。这一举动无疑加剧了大型科技公司在智能眼镜领域的竞争。
meta首席技术官Andrew Bosworth也在近期发表的一篇博客中表示,2024年是人工智能眼镜大放异彩的一年。他认为,智能眼镜可能是真正的人工智能原生设备的最佳形态,也是第一个从一开始就完全由人工智能定义的硬件类别。这一观点无疑为智能眼镜的未来发展提供了更多的想象空间。
来源:ITBear科技资讯