看完Tango和ARkit才知AR各有不同
最近几天大家都将关注点放在了各家手机厂商的旗舰机上,但是我们这里不妨聊聊其他话题,把眼光放得更远一些,看看移动计算设备未来的技术究竟发展的怎么样了,比如说AR技术?
为什么聊AR呢?可能站在科技潮流前线的朋友都还记得苹果在几天前的WWDC上发布的ARkit,还有谷歌Project Tango即将上市的第二款机型——Zenfone AR。这两家科技巨头似乎都将AR放在了比VR更重要的位置,不禁让我们想对手机上的AR、VR技术做一下深入的了解。
我们先来对比一下AR、VR技术在个人移动计算设备上的优劣,其实稍微思考一下就明白,VR技术之所以叫做虚拟现实,因为它完全构建了一个全新的空间,我们使用的时候和现实世界完全隔离,所以在生活中长时间使用VR设备并不现实。AR作为增强现实技术就靠谱的多了,毕竟作为一种在现实场景下做叠加的技术,AR能够保证更广的适用范围。
苹果ARkit和谷歌Tango的原理和优劣
在AR技术上,谷歌的Tango手机使用的是最简单粗暴的方式:堆硬件来实现AR技术需要的各个条件。我们先来介绍一下Tango手机上都有哪些和普通手机不一样的地方,谷歌新增了一颗鱼眼镜头和一颗红外传感器,这两个原件就是实现 Tango 三个核心技术的关键了,分别是运动追踪、深度感知和区域学习。
鱼眼摄像头是为了让拍摄场景配合上用户位置、视野的移动,也就是动作追踪。当设备在移动的过程中,超广角鱼眼相机不断地一帧一帧进行拍摄,然后手机会对每一帧里的“特征点”相对位置进行分析,计算出鱼眼相机、也就是手机移动的距离、速度和方向。
深度感知说白了其实就是距离感知,通过红外线传感器和双摄立体视觉都能够测出目标点和我们手机之间的距离。并且为了让整个空间的“绘制”能在手机中进行,Tango手机中的“深度感知”其实也需要前面提到的鱼眼摄像头来提供特征点,只通过这些特征点来对实际环境进行动态建模,大大减少了手机计算的压力。
最后一项就是“区域学习”了,因为虽然鱼眼超广角视野很广,但是仍然没有办法获取整个空间的信息。所以Tango手机在不断检测新场景的过程中,一旦检测到这个场景中有和之前某个场景中的深度和特征点匹配的点,就会将两个场景结合,最后经过一段时间的学习,所有新场景都会被Tango手机记住并且构成一整套空间。
再回头看看苹果的ARkit,和谷歌堆硬件的做法完全不一样,ARkit可以让所有搭载 iOS 11 的设备具备AR能力,甚至是单摄手机都可以。这就非常神奇了,因为虽然单摄可以做到运动追踪(摄像头没有鱼眼那么广罢了,对于优化的要求很高),但是对于深度感知就没辙了,毕竟单摄只能获取平面影像信息。但是苹果还是硬生生地实现了,可惜的是在WWDC上也没有介绍他们是如何做到的。
所以照现在的ARkit来看,搭载双摄的iPhone是很有希望实现和Tango手机类似体验的。不过现在通过单摄终究是有限制的,ARkit只能进行简单的平面和边界的识别,比如像Pokemon Go或者是在桌面上渲染出一些物体这样的功能,如果要它像Tango手机那样完成整个环境的三维重建就做不到了,比如用于虚拟装修这样复杂的应用。
所以比起谷歌的Tango,ARkit的缺点在于无法用于复杂场景和功能,但是优点是单摄手机就能实现AR功能,完全不需要其他硬件来进行配合,这也是为什么苹果能够自信地说ARkit是全世界最大的AR平台。
但是现在谷歌是崩溃的,首先,未来绝大多数第三方AR资源都会被投入到iOS中,因为所有iOS设备都支持ARkit,而Tango手机一共只有两部。其次,一旦双摄iPhone得到普及,那么ARkit在体验上也能够追上Tango了,到时候谷歌的AR可就危险了。
在谷歌和苹果中间,尴尬的国产厂商
但是最让人绝望的是,国产厂商在这场战争中到底处于什么位置?不出意外的话,AR设备将会成为下一代个人移动计算平台的主角,它可能是AR眼镜,可能是AR手环,但不管它们是什么,取代的都是智能手机!而这些设备所需要的技术,正是由现在的ARkit和Tango这样的项目演变得到的,现在谷歌和苹果已经走得这么远了,国产厂商呢?
查遍了现在市场上的手机之后,我们只发现了一款具备类似功能的手机,但是它也仅仅是能够通过双摄对固定不动的事物来进行深度感知,也就是他们所宣传的3D建模,用来实现AR试衣、3D打印和更换发型等功能,要用运动追踪和区域学习来识别实际环境的话还无法实现,但是这正是AR技术最难的两点。
之前不少手机厂商都说过,他们绝不放弃手机业务,这样才能够在下一代移动计算设备革命的时候成为牌桌上的玩家。但是现在看来,如果下一代革命真的是AR技术的话,那最大的玩家可能依然还是谷歌和苹果,因为其他厂商在这方面的积淀和他们比起来差距实在太大了。
【本文图片来自网络】
推荐阅读