用于单摄像头AR的Google ARCore深度API公开

导读 Google现在已经公开了其针对单相机设置的ARCore深度API,从而大大扩展了Android用户的AR可用性。据报道,该API已包含在Google Play商店中

Google现在已经公开了其针对单相机设置的ARCore深度API,从而大大扩展了Android用户的AR可用性。据报道,该API已包含在Google Play商店中的“适用于AR的Google Play服务” 1.18版的更新中。顾名思义,深度API允许“数以亿计的兼容Android设备”充分利用深度感应硬件和算法。

具体来说,该算法无需专用传感器(如ToF传感器)即可生成深度图。这些无疑将改善某些设备上某些用户的体验。例如,三星的Galaxy Note 10+及更高版本的设备通常配备传感器。

但是在这里,相机利用了基于单个RGB相机的深度感应变化。该深度基于摄像机从不同角度跨越多个“图像”的运动来计算深度。

ARCore深度API在Google之外具有什么优势?

API的优点相对简单。随着在更多设备上进行更好的深度测量,更多设备将支持AR功能。并且,这里包括在现实世界中现实放置对象的能力。例如,可以使对象看起来好像它们在另一个对象后面一样-通过摄像机移动逼真的移入和移出视图。

它还可以更好地放置飞机。如Google Creative Lab的“玩法”演示中所示,这意味着对象可以与现实世界中的对象进行实际交互。在游戏路线中,可以设置多米诺骨牌并将其倒空。如果多米诺骨牌与平面(例如墙壁或家具)接触,它们将停止现实落在这些物体上。

Google排队了一些新的合作伙伴,这些合作伙伴也正在使用新的AR深度技术。

三星将在其Galaxy Note 10+到S20 Ultra的设备上结合ARCore的深度API和其ToF传感器。该公司有一个Quick Measure应用,该应用利用AR来测量现实世界中的物体。现在,这将更加准确。

为了获得更有趣的体验,Snap Inc使用API​​为Snapchat创建了一些新的Lenses。其中包括跳舞的热狗角色,可以更好地与现实世界互动。但它也包括其他功能,例如Android专用的海底世界镜头。Snapchat Lens的创建者也可以使用ARCore Depth API来获得乐趣。该公司推出了一个模板,供创作者使用API​​生成自己的,更逼真的体验。

这是Freddy的AR的《玩五个晚上》中的其他游戏和与生产力相关的体验之上:特别交付给TeamViewer Pilot。这些示例中的后一个示例利用API为团队成员提供有关任务的远程支持。

这与Google的其他AR努力并不完全分开

当然,由于该API是公开的并且可以在更多设备上使用,因此毫无疑问,其他AR体验也将大量推出。但这并不是Google最近在增强现实领域所推动的唯一进步。例如,该公司最近也公开了另一个API。那就是它的Android版Maps API,使更多开发者可以利用Google的游戏地图数据。尽管Pokemon GO使用了自己的API,但仍提供了一个示例,说明了它可能如何工作。

该平台也可以与新的ARCore API结合使用,从而产生更大的效果。允许开发人员访问这两个对象,不仅可以提供有关真实对象的更真实的体验。它还使他们能够将这些体验放在更多的地方。