谷歌让您更轻松地在手机上记录AR数据

导读 ARCore 工具可让您在 Android 手机上无需激光雷达即可创建深度图,并且该工具可能会扩展到更多应用程序。在今年Google 的虚拟Google I

ARCore 工具可让您在 Android 手机上无需激光雷达即可创建深度图,并且该工具可能会扩展到更多应用程序。在今年Google 的虚拟Google I/O开发者大会上,增强现实的新闻并不一定走在前列。但是该公司对其在 Android 上的ARCore 工具的更新看起来像是添加了一些与 Apple 的激光雷达相同的世界扫描功能——但没有激光雷达。而且,可以将 AR 分层到预先录制的视频中。

根据谷歌的 ARCore 1.24 公告,新工具可用于将手机捕获的深度图与 ARCore 共享:换句话说,“3D 网格”中房间内物体的粗略位置。基于谷歌在博客文章中宣布的合作伙伴应用程序,应用程序可用于 3D 扫描或 AR,将物体(如家具)逼真地放置在一个装满东西的房间中。

更有趣(和令人费解)的部分来自谷歌记录和共享深度图数据的能力,该公司将其设想为将 AR 放入预先录制的视频等内容中的一种方式。如果某人已经拥有某个房间的深度数据,那么该房间的视频最终可能会使用该数据将对象作为效果放入视频中,可能用于社交视频(以 TikTok 为例)或其他任何地方。

据谷歌称,已经在尝试利用这些功能的合作伙伴应用程序是 AR Doodads(一种将复杂的 Rube Goldberg 事物分层到房间中的应用程序)、LifeAR(一种使用 AR 来投影化身的视频通话应用程序)和 VoxPlop(事后将 3D 效果分层到视频中)。

谷歌在一年前首次宣布了其深度感应 AR 功能,但现在是新的应用程序之间开放的深度数据共享。谷歌的帖子解释说:“这些更新利用了运动的深度,使它们可以在数亿台 Android 设备上使用,而无需依赖专门的传感器。” “虽然不需要飞行时间 (ToF) 传感器等深度传感器,但拥有它们将进一步提高您的体验质量。”

虽然 Apple 目前依靠物理传感器(激光雷达)来实现AR中房间的 3D 网格,但像 Niantic这样的一些公司已经在没有激光雷达的情况下做类似的事情。谷歌现在看起来也正在为 Android 提供更多这些工具。

版权声明:本文由用户上传,如有侵权请联系删除!