摘要:Meta 研究人员近日展示了一项新技术,能够将单个图像转换为逼真的 VR 环境。这一技术有望让用户通过 Meta Quest 等 VR 头显设备,探索由单个图像生成的 3D 场景,甚至将其作为头显的主页环境。
Meta 研究人员近日展示了一项新技术,能够将单个图像转换为逼真的 VR 环境。这一技术有望让用户通过 Meta Quest 等 VR 头显设备,探索由单个图像生成的 3D 场景,甚至将其作为头显的主页环境。
这项研究由 Reality Labs Zurich 的团队完成,并在上周发表的研究论文中进行了详细介绍。虽然现有的生成式人工智能模型已经能够根据单个图像创建视频,但在生成完全沉浸式的 3D 环境方面仍存在挑战。
研究团队提出了一个创新的解决方案,将复杂的 3D 环境生成任务分解为一系列更易于管理的子问题。他们首先使用预先训练的扩散模型生成连贯的全景图,然后利用度量深度估计器将其转换为 3D 状态。接下来,团队通过调节修复模型来填充未观察到的区域,从而完善整个 3D 环境。
最终,研究团队成功创建了可以在 VR 头显上查看和导览的 3D 环境。这些环境使用高斯溅射渲染技术,能够在 2 米(约 6.5 英尺)的立方体内提供高质量的 VR 体验。值得注意的是,这项技术不仅适用于合成图像和照片,还可以接受场景的文字描述作为输入,生成适合 VR 头显的 3D 环境。
然而,研究论文也提到了一些限制和挑战。例如,将可导览区域扩展到 2 米以上会大大增加任务的复杂性,目前尚不支持实时场景合成。但一旦创建了高斯溅射环境,就可以在 VR 设备上实时显示。
尽管存在一些限制,但 Meta 的这项新技术仍然为 VR 环境的生成提供了新的可能性。目前尚不清楚这项技术何时会被整合到 Meta Quest 等产品中,但商业化似乎并不遥远。
来源:新浪VR