深度解析蔚来ET7自动驾驶技术

李博Garvin 2021-01-12 22:10:56  7655  收藏 11

分类专栏: 机器学习 文章标签: 人工智能 机器学习 自动驾驶

版权

机器学习

专栏收录该内容

115 篇文章4 订阅

订阅专栏

我个人是个汽车迷,每天都会看大量汽车相关的信息,最近蔚来发布了ET7这款车,看宣传是有机会实现L4自动驾驶,有不了解自动驾驶技术的同学可以看下以下信息:

除了传统的依靠视觉模型做自动驾驶的实现以外,本次蔚来ET7也搭载了Aquila超感系统。也就是说ET7是包含了:视觉自动驾驶技术+雷达波自动驾驶技术。接下来分别聊下ET7在这两方面技术的一些功能点。

视觉自动驾驶技术

ET7搭载了4颗NVDIA Drive Orin芯片以及800万像素的摄像头,这两个硬件设备是视觉自动驾驶技术实现的根本。先来说下芯片,这款芯片是专业的车载芯片。

ORin芯片可以支持基于Cuda和TensorRT做深度学习模型的服务,TensorRT是一个模型服务的框架,可以支持各种框架产生的模型。

ET7每秒钟可以产生8GB的视频,而视觉自动驾驶技术,其实就是一个物体识别模型实时inference的流程,需要保持每秒钟超过10个以上的图片识别请求效率。所以视觉自动驾驶的实现前提是强大的芯片计算力。Orin芯片是这个计算力的保证。

另外我个人的一个猜想,其实在汽车驾驶过程中Orin芯片可以被用来做实时的图片识别,当汽车不运行的时候,比如汽车充电的时候,这些计算力也可以用来做模型的更新,利用迁移学习技术对本车产生的一些新的数据做模型的fine-tune,不过如何保证这些fine-tune的模型准确率是个问题。短时间内,我猜测,汽车芯片还是主要负责inference,不会参与训练。

雷达波自动驾驶技术

雷达波自动驾驶技术是对视觉自动驾驶技术的补充。NIO Aquila蔚来超感系统将定义量产车自动驾驶感知系统的全新标准,该系统拥有33个高性能感知硬件。11个800万像素的高清摄像头,4个前向,3个后向,4个环视;1个超远距高精度激光雷达,5个毫米波雷达;12个超声波传感器,两个高精度定位单元,以及车路协同感知和增强主驾感知。

在一些雷雨天气,摄像头可能被雨点弄模糊,或者在一些强光环境下,摄像头无法正确捕捉画面,这个时候通过激光雷达波的方式可以辅助识别前方障碍物。下图是雷达波反馈的一个前方障碍物效果图,基本也能构建出前方的事物。

Aquila雷达波系统是由一家中国供应商Innovusion提供,该供应商也接受了来自蔚来的投资。目前Innovusion主要提供L3以上的自动驾驶辅助功能。

激光雷达本身的原理非常简单,像激光笔一样打到边上屏幕上,发过去再回来。但是自动驾驶难就难在要在自然的场景下,在自然光的条件下,有时候还有阳光,各种雨雾天气情况下打这个激光笔的光点,而且光电会打到各种不同特性的物体表面。如果打在会场后面,大家可以看到光点大很多了。如果在外面阳光下,用这个激光笔打的光点几乎是看不到的。在自然环境下保守估计有5%-10%的几率激光雷达系统会接收不到从物体返回的信号。

比如在50米以外,一米高的小孩要十个点以上(才能有效感知),需要激光雷达的传感器分辨率至少达到0.2度左右。另外高速路上的行驶,大家公认比较保守的停车、刹车距离大约是150米左右,这么远距离以外,汽车比人更不可控制,也许有一些车本身擦得很亮,颜色非常深,这时候一个车上需要有15-20个点左右。同样推算,激光雷达的分辨率也需要0.2度左右。一个驾驶场景考虑到纵向有坡度等不同变化条件下,大家可能希望有大约20-30度左右的视角。30除以0.2度,所以大家希望激光雷达达到的线数是150线左右,这是L4级自动驾驶的最低线数。

总结一下

目前来看,蔚来在自动驾驶方面准备走雷达波结合视觉识别的方式,对比特斯拉只采用视觉识别的模式,蔚来的方案显然保证性更高。在视觉识别方面,未来技术发展路线一定是通过更多地训练样本提升模型准确率。在雷达波技术演进方面,未来很有可能采取更多线的雷达波方案,增加辐射面积。

蔚来这辆车我爱了,希望国产车越来越牛~

————————————————

版权声明:本文为CSDN博主「李博Garvin」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/buptgshengod/article/details/112548869

(0)

相关推荐