苹果未来的iPhone可能会增加飞行时间摄像头

夏倩波
导读 距离苹果宣布推出2019款iPhone还有几个月的时间,但有传言称其已经开始推出明年的机型。苹果分析师Ming-Chi Kuo在其最新报告中声称,202

距离苹果宣布推出2019款iPhone还有几个月的时间,但有传言称其已经开始推出明年的机型。苹果分析师Ming-Chi Kuo在其最新报告中声称,2020年的两款iPhones将采用后置飞行时间(ToF)3D深度传感器,通过MacRumors提供更好的增强现实功能和人像拍摄。

这不是我们第一次听说苹果公司正在考虑为其手机购买ToF相机。彭博在1月份报道了类似的传言,关于iPhone的3D相机系统的报道自2017年就已经存在。其他公司击败了苹果,市场上的几款手机都配备了ToF摄像头。但考虑到苹果硬件的受欢迎程度及其对行业的影响,这种相机技术是什么以及如何工作是值得一看的。

什么是ToF传感器,它是如何工作的?

对于某种技术来说,飞行时间是一个包罗万象的术语,它可以衡量某种东西(无论是激光、光、液体还是气体粒子)行进一定距离所需的时间。

具体来说,在相机传感器的情况下,红外激光阵列用于发射激光脉冲,该激光脉冲从其前方的物体反弹并反射回传感器。通过计算激光到达物体并返回的时间长度,就可以计算出距离传感器的距离(因为给定介质中的光速是常数)。通过了解房间中所有不同对象的距离,您可以计算出房间和其中所有对象的详细3D地图。

这项技术通常用于无人机和自动驾驶汽车等相机中(防止它们撞到东西),但最近,我们开始看到它也出现在手机中。

它和Face ID有什么不同?

Face ID(和其他类似的系统)使用红外投影仪脉冲成千上万个点的网格,然后手机拍摄2D图像,并用它来计算深度图。

pic.twitter.com/GmOPZpKLgF,iPhone X的Face ID是这样工作的

-The Verge(@ Verge)2017年11月5日

飞行时间传感器的工作原理不同:通过使用飞行时间数据来计算激光到达物体所需的时间,它可以获得实时的3D深度数据,而不是计算为三个的2D地图数据大小。

这带来了几个好处:因为基于激光的系统,它的工作范围比苹果基于网格的Face ID系统更长,并且它只能在距离手机大约10到20英寸的地方使用。(如果对象太远,网格的点间隔太大,无法提供有用的分辨率。)理论上,它也允许比IR网格系统更精确的数据。LG G8就是一个很好的例子,它使用ToF传感器来感应手势。ToF系统允许在3D中实时跟踪和区分每个手指,以实现这些手势。

苹果为什么要它?

来自郭和彭博的传言称,苹果正在寻求将2020年iPhone上的ToF传感器添加到后置摄像头中,而不是为Face ID更换现有的红外系统(据报道,新iPhone仍将拥有该系统)。

苹果的重点是提供一种新的增强现实体验:ToF传感器可以在移动范围内实现房间跟踪,允许未来的iPhone扫描房间,创建精确的3D渲染,并将其用于比当前模型允许的更沉浸式和精确的增强现实实施。

作为额外的好处,ToF传感器还可以通过捕捉完整的3D地图来更好地将主体与背景分开,从而为人像模式图片实现更好的深度映射视频(华为已经使用P30 Pro来实现更好的深度映射),以及更好的人像模式风格。

还有谁在用?

一些电话公司在其设备中配备了ToF扫描仪。如前所述,LG在G8的前置摄像头中使用了一个,以实现动作手势和更好的人像照片。(它还使用相同的红外激光系统进行静脉映射,以获得手机独有的“手掌识别”功能。)

华为的P30 Pro也有一个作为后置摄像头阵列的一部分,用于人像效果的深度贴图。也就是说,华为在发布的时候也声称对传感器有一些AR野心,并指出P30 Pro可以测量真实物体的高度、深度、体积和面积,准确率超过98.5%。

为包括iPhone在内的各种智能手机提供成像传感器的索尼今年早些时候宣布,计划在今年夏天增加基于3D激光的ToF芯片的产量,这将是2020年纳入iPhone的最佳时机。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!