特斯拉与ME分手为了不止眼前的苟且

近日特斯拉Tesla的CEO ELON MUSK正式宣布与ADAS视觉处理领先供应商Mobileye (简称ME)终止战略合作。一时间激起了各种关于特斯拉自动驾驶系统Autopilot评论。背后的深层原因或是特斯拉为了不止眼前的苟且而做出战略决定。今天我们就来聊聊特斯拉与ME分手背后的原因以及特斯拉Autopilot系统的未来可能走向。

分手的导火索-自动驾驶致死事故

5月7日发生在美国高速公路的一起致死交通事故将特斯拉推向了舆论的风口浪尖。因为行车记录器显示当时发生事故的特斯拉Model S车型正处于自动驾驶系统Autopilot激活状态。

特斯拉自动驾驶系统Autopilot的感知传感器如上图主要由12个长距离超声波距离传感器Ultrasonic Sensors、1个长距离雷达Radar和1个前向摄像头Forward-facing camera组成。可以实现自动巡航,自动变道和紧急刹车功能。而事故的发生正是因为紧急刹车功能并未正常工作。

紧急刹车功能的关键传感器如上图所示,左侧为位于车辆内后视镜中集成的前向摄像头,右侧为车辆前保险杠中下部装配的长距离雷达Radar。其中前向摄像头模块由特斯拉自主开发,内部使用的正式来在ME的EYEQ3 ADAS视觉处理芯片。

如上图所示,事故发生的原因是当时驾驶者并未按照使用要求在封闭的高速公路使用Autopilot系统而且没有保持足够的注意力在路面上。一辆全白车身的拖挂大卡车穿过路口横在了事故Model S车辆的前方。强烈的阳光和全白的车身导致前向摄像头模块误以为卡车的白色车身是蓝天白云背景中的一部分。长距离雷达Radar系统成功探测到了前方大卡车形成的金属障碍物。但是由于交叉路口卡车行驶方向与事故车辆Model S成直角,长距离雷达Radar系统认为它是一个静止物体。加上前向摄像头模块的判断,长距离雷达模块误认前方的障碍物为路面上方的指示牌或横架。两个关键传感器的误判导致了紧急刹车功能未能起效。

理念存异,渐生隔阂

如上提到的致命事故其实只能说是导火索。其背后更深层的原因更可能是特斯拉与ME之间理念的差异导致合作开发无法持续进行下去。在致命事故发生后不久,ME曾在公开场合回应媒体特斯拉Model S所使用的EYEQ3(如上图所示)并不能满足自动驾驶的要求。它的规格定义和相关测试都是基于同向行驶中防止与前车的碰撞。而事故显然超出了这个定义,卡车横向停在了车辆面前。而针对自动驾驶需要等到下一代的下一代产品EYEQ5。

这样的开发速度显然不能满足特斯拉的需求。使得特斯拉无法与其他整车厂形成差异化,ME的黑盒子开发理念(提供硬件软件打包方案,改进视觉判断失效和优化性能的实施几乎全部掌握在ME手中)大幅限制了特斯拉改进其Autopilot系统的效率。因此为了不止眼前的苟且特斯拉必须选择一条不一样的道路。如上图为ME的EyeQ3

如上图所示和ME分手并不容易。ME的优势在于它基于与所有的整车厂合作来建立一个庞大的视觉识别案例数据库,并且开始和HERE、TomTom等地图供应商合作进行地图数据众包采集concocting Crowd-Sourced Mapping Data技术(如下图所示)来以较低的成本达到类似谷歌Google高精度3D地图的性能。那么特斯拉与ME分手后如何补偿相应的技术缺失呢?

背后的未来Autopilot2.0计划:

-基于目前系统提升雷达性能

当致命事故发生后,众多的媒体都认为目前特斯拉采用的长距离雷达Radar + 前向摄像头模块的组合存在不足,需要高精度的激光雷达Lidar加入传感器的组合。甚至媒体还在路上拍到了顶部装配激光雷达Lidar传感器的Model S车型。引起了对于将来特斯拉车型装配激光雷达Lidar传感器的猜测。

但是很快特斯拉CEO Elon Musk的发言澄清了他的观点。他认为短期内激光雷达Lidar传感器还是太过昂贵,他会更倾向于改进目前的长距离雷达Radar传感器的性能。如下图所示,Musk表示使用目前特斯拉使用的雷达Radar技术本身(不依靠摄像头数据)加上短暂的优化就可以某种程度上达到类似激光雷达Lidar对周围环境的感知能力。

如下图所示,Musk甚至表示长距离雷达Radar相比激光雷达Lidar(基于可见光波长范围)甚至在某些情况下具有更好的适应能力,比如雨、雪、雾、尘天气的干扰情况。

其实特斯拉对于长距离雷达Radar技术的强调也因为如果对于致命事故的调查导致特斯拉必须发起召回,该技术是唯一有可能在短期内通过OTA远程程序升级修复相关问题且低成本的解决方案。事故发生的部分原因是,雷达Radar发现了前方障碍物交由前向摄像头模块进行数据融合Sensor Fusion和决策,最终该障碍物被认为没有威胁而酿成事故。因此将来长距离雷达Radar的优先级将提升,而不仅仅在数据融合中扮演从属角色。下图为特斯拉所装配的长距离雷达Radar传感器。

-未来增加更多的摄像头

如下图所示为特斯拉目前所配备的前向摄像头模块,集成在内后视镜中的单摄像头模块。

为了更好的判断距离确认障碍物,其中一种方法是采用类似人眼的双目摄像头形成立体图像从而更精确的判断物体距离。双目摄像头将有可能最早出现在Model X车型中。如下图一为Model X测试车型配备的双目摄像头。下图二为相应的双目摄像头模块。

不仅如此,特斯拉还提出了采用三目摄像头和双三目摄像头的更为激进的方案。如下图所示三目摄像头在原来单目摄像头的基础上增加了一个远距离窄视角的摄像头用于长距离目标追踪和交通标志及地面障碍物的提前标识。同时还增加了一个近距离宽视角的摄像头用于探测周围的行人和汽车人。而双三目方案则类似于之前提到的双目方案用于建立立体视觉,只是每一个视觉模块都被前面提到的三个不同探测距离和视角的摄像头所取代。双三目方案的其中一个三目摄像头将安置在内后视镜中,另一个将安装在前方车鼻位置。

下图一为出现在特斯拉最新的线束原理图中的三目摄像头,下图二可以看到三个摄像头分别为主摄像头Main,窄视角摄像头Narrow和宽视角摄像头Fish Eye。

-发力人工智能开发

特斯拉Autopilot系统是世界首个真正实施人工智能的驾驶辅助系统。并且其人工智能的核心技术深度学习Deep Neural Networks (DNN)完全为自主开发,并未借助ME的帮助。因此这成为与ME分手最大的底气。下图一为通过对摄像头采集图像进行分层学习过程的示意图,从图像中可以抽取相应的目标位置,路线规划。下图二为通过深度学习,规划出的路径不再完全依靠车道线,而是基于对于前方目标辨认标识出的安全空间(绿色部分)。

堪称梦幻的人工智能AI开发团队

特斯拉其实悄然组成了一个强大的人工智能开发团队。因此开发一款视觉处理专用芯片SOC不在是一个很大的问题。

Jim Keller

现任特斯拉自动驾驶系统Autopilot系统硬件工程副总裁。曾经是AMD K8等CPU的架构师,并设计了苹果Apple公司相关设备比如iphone手机所使用的A4,A5核心架构。如下图为JimKeller在AMD技术会议上的照片。

Peter Bannon

曾任职苹果Apple公司,并随Jim加入了特斯拉Autopilot。

David Glasco

曾在Intel,IBM,NVIDIA等公司任职,加入特斯拉前是AMD公司服务器专用芯片SOC架构高级总监

Thaddeus Fortenberry

加入特斯拉Autopilot前为AMD公司云服务器架构师

Debjit Das Sarma

加入特斯拉Autopilot前为AMD公司CPU架构师

Keith Witek

曾任AMD公司策略及业务拓展部副总裁,现任特斯拉Autopilot总监

Junli Gu

曾是AMD公司机器学习技术资深技术成员,现在是特斯拉autopilot机器学习技术领军人物。

加强与NVIDIA的合作

前文提到特斯拉已经准备好了一个开发视觉处理专用芯片SOC的强大团队,但是开发芯片需要一个非常长的周期。为了满足近期特斯拉车型的近期的需要,除了继续使用ME 的EYEQ3产品外,特斯拉无疑将进一步增强与战略合作伙伴NVIDIA的合作。下图为Jen-Hsun Huang NVIDIA CEO和特斯拉CEO Elon Musk针对媒体讨论自动驾驶未来前景的照片。

下图为NVIDIA的为自动驾驶开发的深度学习DNN计算平台。

作为通用的图形处理单元GPU, NVIDIA的芯片相对ME的图形处理专用芯片SOC具有更强大的计算能力,但是相应的也消耗更大的功耗。这成为特斯拉使用NVIDIA的GPU直接进行图形处理的最大障碍。当然也不排除特斯拉因此与NIVIDA合作开发专用芯片SOC以降低功耗解决相应的问题。下图为ME EyeQ3芯片与NIVIDA Tegra X1的性能对比。可以在性能指标FLOPS中Tegra X1具有更强大的计算能力(Tegra X1为286720大于EyeQ3的204800),但同时EyeQ3的功耗仅为2.5W,而TegraX1的功耗达到了10W的级别。

综上所示,为了不止眼前的苟且,而走向的未来的诗和远方。特斯拉终于从战略层面上与ME分手。相应的短期内特斯拉将进一步增强长距离雷达Radar的性能。未来特斯拉车型将使用更多的摄像头来更好地感知周围的环境。同时特斯拉已经组件了一个梦幻的团队,并与NIVIDA联合进行人工智能的开发,而且不排除开发相应图形处理专用芯片SOC的可能。

(0)

相关推荐