VR之家消息:今天,WWDC20开发者大会正式召开,苹果也正式发布了ARKit 4,公司在官网上低调的进行了更新。将为LiDAR进行深度信息优化等功能,让我们一起来了解一下吧。
实际上,在2020款iPad Pro发布时苹果就为其搭载的LiDAR推送了ARKit 3.5更新,该更新充分利用了LiDAR激光雷达的特性,加入场景几何(识别并区分场景内不同的物体)、即时AR体验、改进动作捕捉和人体遮挡等新功能。
ARKit 4的主要特性也是围绕LiDAR来展开,如无意外,LiDAR模组在未来苹果AR体验(尤其是穿戴式设备上)中将占据主导地位。ARKit 4的主要更新如下:深度API、位置锚定、脸部追踪支持更多设备。
深度API:该功能基于LiDAR数据,通过LiDAR对每个像素的深度信息进行分析,并与场景几何的3D网格数据结合使用,让虚拟物体与显示物体的融合更逼真、自然。同时,还可进一步提升AR测距应用的准确性。
该特性仅支持iPad Pro 2020款设备,后续具备LiDAR的设备(据悉iPhone 12最大号的那一款也会配备LiDAR)也会支持。
位置锚定:可将AR虚拟物体放在现实中特定位置,例如一个著名景区,通过位置锚定即可为AR虚拟物体加上经纬度、海拔等信息,从而与地理位置永久性的融合。
该功能跟ARKit 2中的持久性体验(基于保存与加载地图特性)不同,ARKit 2持久性体验基于视觉部分,非永久固定,没有结合地图的GPS数据。仅支持iPhone Xs、iPhone Xs Max、iPhone XR以及更新的iPhone 11系列机型,同时目前仅支持部分地区,因此对于苹果地图扩展能力也是一个考验。
脸部追踪扩展:将面部追踪功能扩展到更多设备上,让更多设备支持AR照片和视频的玩法。其中,新款iPhone SE仅支持单用户追踪,而具备原深感相机TureDepth的设备可同时识别追踪三个人脸信息,共同实现Memoji、Snapchat等基于前置镜头的AR玩法。
该功能仅支持使用A12 Bionic及更新芯片的设备,实际上就是为新款iPhone SE提供了前置AR能力,因为此前AR人脸追踪仅支持具备原深感相机的设备。
由此可见,ARKit 4在重大功能迭代方面的确表现并没有之前亮眼,因此我们对于后续功能和体验上的优化我们也更为期待。
另外,在iPadOS 14的介绍图中还出现了AR video texttures的功能,后续我们也会持续关注。
以上就是小编为大家带来的苹果发布ARKit 4更新-功能升级更加依赖LiDAR的介绍,想要了解更多VR资讯请关注本站。下载盒子即可享受一键下载游戏、搜索礼包、查找攻略等一站式服务,喜欢玩破解版的玩家就下载【破解游戏盒子】