就在今天早晨,苹果发布了iOS/iPadOS 13.4更新,除了常规升级,还有个看似不起眼的更新:加入了ARKit 3.5。
如果你关注过上周发布的iPad Pro,想必已经能猜到,ARKit 3.5是就是为它的激光雷达准备的。
AR似乎远远看不到大范围实际应用的那一天,但是iPad Pro激光雷达的出现可能改变这一局面。
关于ARKit 3.5
在今天更新的ARKit 3.5中,苹果添加了一个新的“场景几何”(Scene Geometry)API,允许开发者使用iPad Pro上激光雷达扫描仪创建房间的3D地图,识别地板、墙壁、天花板、桌椅沙发等。
这让iOS自带的测距仪App体验有了质的飞跃。
之前的iPad和iPhone都是通过摄像头的景深来感知物体的远近,实际上测距仪的照片中并不包含真正的3D信息。
用过测距仪的用户都知道,比如我们在测量桌子长度的时候,测距仪的起点和终点很难精准地放置在桌子边缘上。这使得我们的测量准确度大打折扣。
△图片转自魏布斯视频
而且如果你走得更近,则会在屏幕上展示更多细节,比如自动显示的新标尺视图。
△图片转自魏布斯视频
数码评测达人魏布斯在他的评测视频中对iPad Pro的激光雷达有详细的介绍。
尽管苹果没有特别提及,但激光雷达也将改善相机拍摄效果,今后在采用人像模式时,背景虚化也会更加精准。
iPad上的激光雷达
激光雷达之前已经广泛用在自动驾驶汽车上,用于物体的3D成像。苹果的自动驾驶秘密项目Titan Project也用过激光雷达。
苹果在2017年发表的一篇研究论文详细介绍了自动驾驶汽车上的3D对象识别系统。该系统利用了激光雷达的深度图,与神经网络结合起来,大大提高了自动驾驶汽车识别环境的能力。
而是更具发射光子反射回来的时间差来计算距离,这颗ToF能以纳秒(十亿分之一秒)速度运行,精度更高、能耗更低。正是这个传感器的出现让AR应用成为可能。
用iPad拍摄照片看起来相当笨拙,但是今年的iPhone可能配备激光雷达,如果苹果的AR眼镜计划付诸实践,那么未来的苹果AR眼镜也一定会有激光雷达相助。
令人高兴的是,外媒AppleInsider爆料称,iOS 14的代码中显示今年的iPhone会加入激光雷达。只是iPhone背后的三摄排列似乎没有给激光雷达留下足够的空间,难道iPhone的摄像头布局还要改吗?