特斯拉Autopilot到底安全吗?

2017年购买特斯拉Model S时,罗宾·吉乌拉(Robin Geoulla)其实有些顾虑,他对这辆车的自动驾驶技术有些怀疑。

“完全依赖它,让它自己驾驶,有点可怕,你懂的。”罗宾这样对一名美国调查人员描述其对特斯拉Autopilot系统的最初感受。2018年1月,发表上述感慨几天前,罗宾那辆Model S在Autopilot启动状态下,撞上一辆停在加州州际公路上的消防车后部。
随着时间推移,罗宾改变了对Autopilot的怀疑态度。他发现,一般情况下,Autopilot在跟踪前面车辆时基本可靠,但当面对阳光直射或前面车辆突然改变车道,Autopilot系统似乎就会出现混乱状况。在接受美国国家运输安全委员会(NTSB)调查人员问询时,罗宾回答道。
他告诉调查人员,在与消防车追尾之前,他正朝着太阳行驶——这似乎也印证了上述观点。NTSB发现,特斯拉Autopilot设计允许罗宾在行驶中脱离驾驶,当Autopilot启动时,他的手几乎约30分钟都不在方向盘上。
NTSB此前曾敦促美国国家公路交通安全管理局(NHTSA)调查Autopilot的局限性、司机滥用的可能性,以及一系列涉及Autopilot事故(其中有部分致命事故)后可能存在的安全风险。
NTSB新任主席詹妮弗·霍曼迪(Jennifer Homendy)告诉路透社:“事实表明,人们关注的重点一直是创新,而不是安全。我希望当下就是发生转变的开始。”她说,特斯拉Autopilot与航空领域使用的更严格自动驾驶系统没有可比性,后者配有训练有素的飞行员,而且匹配应对疲劳、药物和酒精测试的相关规则。
特斯拉网站显示,Autopilot是一种先进的驾驶员辅助功能,当前版本无法实现自动驾驶。启用该系统前,司机必须把手放在方向盘上,并保持对车辆的控制。
罗宾的事故是NHTSA正在调查的12起(包含9月13日弗罗里达事故)涉及Autopilot事故之一,这是该机构自特斯拉 2015年引入Autopilot系统以来最深入的调查的一部分。
经路透社查阅NHTSA声明、NTSB文件和警方报告显示,正在调查的这些事故中,大多数发生在天黑后,或阳光刺眼等能见度有限的条件下。自动驾驶专家表示,这引发了人们对Autopilot在特殊驾驶条件下应变能力的质疑。
NHTSA发言人在发给路透社的一份声明中写道:“当我们发现对公共安全构成不合理风险时,我们将采取行动。”
调查Autopilot
调查行动早已展开。
自2016年以来,美国汽车安全监管机构已陆续安排33个特别事故调查小组,对涉嫌使用先进驾驶辅助系统的特斯拉事故进行调查。NHTSA已经排除其中3起非致命事故中使用Autopilot的可能性。
NHTSA当下对Autopilot的调查,重新引出一个问题——Autopilot系统到底是否安全?这也是特斯拉首席执行官埃隆·马斯克(Elon Musk)面临的重大挑战。
对于换道等高级驾驶辅助功能,特斯拉向客户收取1万美元费用,承诺最终只使用摄像头和高级软件就能实现自动驾驶。而其他汽车制造商和自动驾驶公司不仅使用摄像头,还使用更昂贵的硬件,包括雷达和激光雷达。
马斯克曾表示,配备8个摄像头的特斯拉比人类驾驶还要安全。但专家和业内高管则表示,摄像头技术会受到黑暗、阳光,以及暴雨、雪和雾等恶劣天气条件的影响。
卡耐基梅隆大学电子与计算机工程教授拉吉·拉基库马尔(Raj Rajkumar)认为,现今计算机视觉远未达到完美,在可预见的未来也将如此。
2016年,特斯拉在佛罗里达州威利斯顿西部发生美国首起涉及Autopilot的致命事故。在明亮的天空下,司机和Autopilot都没能识别一辆重型卡车的白色挡板。当时,特斯拉没有刹车,而是直直地撞上了那辆重型卡车。
路透社查阅文件显示,2017年1月NHTSA结束对那次致命事故的调查,在与特斯拉相关人员进行一些有争议的交流后,发现Autopilot性能没有缺陷。
根据监管机构发给特斯拉的一份特别命令,2016年12月,作为调查的一部分,监管机构要求特斯拉提供对Autopilot引发的任何内部安全担忧的细节,包括司机误用或滥用的可能性。
一位NHTSA律师发现,特斯拉的最初回应不够充分。时任特斯拉总法律顾问托德·马龙(Todd Maron)再次进行补充,他告诉监管机构,对方要求“过于宽泛”,他不可能将Autopilot在开发过程中涉及的所有问题一一列举出来。
尽管如此,马龙认为特斯拉自始至终都持合作态度。在Autopilot开发过程中,特斯拉员工曾谈到他们的担忧——特斯拉偶尔会刹车失灵或加速,或转向失败,以及司机某些误用和滥用,但没有提供更多细节。
NHTSA文件显示,监管机构想知道,特斯拉是如何识别应急车辆上闪烁的灯,或检测道路上的消防车、救护车和警车的存在?该机构从12家竞争对手那里获得了类似信息。“特斯拉被要求生成并验证数据,以及他们对这些数据的解释,NHTSA将对所有信息进行独立验证和分析。”
作为电动汽车先驱,马斯克一直在批评人士和监管机构面前竭力为Autopilot辩护。而且,特斯拉还利用Autopilot无线更新汽车软件,超越并绕开传统汽车召回程序。
马斯克多次宣传Autopilot功能。在一些批评人士眼中,一些宣传方式会误导消费者,后者相信特斯拉可以做到自动驾驶——事实恰恰相反,车主手册告诉司机要保持专注,并说明了这项技术的局限性。
霍曼迪说:“为了销售汽车,一些制造商会按照他们的立场做他们想做的事情,这就需要政府监管控制。”
2秒钟的分界线
就在联邦官员审查特斯拉Autopilot安全性之际,有一项研究表明该系统如何影响驾驶员行为。
麻省理工学院研究人员称,与单纯人类驾驶相比,当Autopilot系统开启时,驾驶员的眼睛偏离道路频率更高,时间更长。
这项研究被认为是首次使用真实驾驶数据来衡量Autopilot驾驶员注意力集中度,以及其视线到底在前方道路的哪一边。
麻省理工学院研究科学家、该研究的作者之一皮尼娜·格森(Pnina Gershon)说:“这是我们第一次将Autopilot对司机注意力的影响进行量化。从本质上讲,数据表明,当Autopilot启用时,我们看到,驾驶员视线偏离道路的时间更长。”
NHTSA正在调查11起事故,其中多起涉及Autopilot车辆与停止的应急车辆相撞。特斯拉必须在2021年10月22日前,提交联邦监管机构要求的书面回复和数据。
这项调查只是Autopilot更广泛安全问题的一小部分。NTSB在对多起涉及Autopilot车辆的致命车祸调查中表示,驾驶员监管不力,以及Autopilot缺乏安全保障。NTSB为此警告道,这种Level 2系统可能导致人类过度依赖,被称为“自动化自满”。
与特斯拉有关的滥用情况在YouTube上被详尽记录。记录显示,有司机读着报纸或直接坐在后排,表现出对驾驶任务的公然无视。
麻省理工学院研究人员试图通过分析特斯拉司机手动解除Autopilot系统,并重新控制车辆期间的眼神来量化注意力水平。
研究人员通过车内摄像头观察290个这种切换实例,区分与驾驶任务相关的、朝向后视镜和仪表板的目光,以及与驾驶无关的目光,如向下和朝向中央区域的目光。研究发现,与单纯人类驾驶员相比,Autopilot模式下,与驾驶相关的目光会减少。与驾驶无关的目光次数增多,其中有22%的目光扫视超过2秒,而单纯人类驾驶员这一比例为4%。
这2秒钟的分界线很重要。为防止分心驾驶,NHTSA建议工程师设计一种系统,确保驾驶者视线远离道路时间不超过2秒钟。格森透露,在研究过程中发现了几次超过5秒的非驾驶眼神。
当驾驶员辅助系统处理驾驶任务时,驾驶员是否安全地将视线移开,这是特斯拉和其他汽车制造商需要考虑的一个重要问题。研究结果表明,是时候考虑这个问题了。
2015年,特斯拉推出第一代Autopilot。2017年,通用汽车于推出超级巡航驾驶员辅助系统。自那以后,众多汽车制造商纷纷跟进,推出更先进的功能。
最新研究表明,尽管这些Level 2系统多年来一直在路上,但司机使用它们或某些系统效果如何,汽车制造商们并没有深入考量对比。
格森担心系统开发的孤立性质,以及这些系统如何影响操作车辆的人类。“如果各厂商继续单打独斗,我们最终将发现,两种车辆并排行驶在路上,然而它们的开发基于不同的设计理念和政策方法,无法在一个生态系统中有效合作。”格森说,“因此,我们需要拿出政策,系统设计者应该传输给消费者什么信息,而消费者根据直观信息做出一些驾驶决定。”
先解决安全问题
美国首席事故调查员敦促特斯拉在扩大其自动驾驶功能之前,先解决安全问题。
霍曼迪在接受《华尔街日报》采访时说,“完全自动驾驶”这个词是“误导和不负责任的”。《华尔街日报》则认为,与汽车手册上的警告相比,市场营销可能会吸引更多关注。
8月13日,霍曼迪宣誓就职后,首次接受彭博社采访时表示:“无论是特斯拉,还是其他公司,这些制造商都有责任诚实地说出他们的技术能做什么,不能做什么。”接着,她赞扬特斯拉在此前多次NTSB调查中的合作,表示并不想把特斯拉单独拎出来说事。
她举例道,各种汽车的电视广告给人一种错误印象,即汽车可以自动转向和制动。“我惊呆了。”霍曼迪说。
解决这些驾驶辅助系统的安全问题是霍曼迪计划的“一长串”行动之一。“我们有一个伟大的过去,但我们必须着眼于未来。”她说,“我们正处在一个转型变革时代,我听说了很多关于创新和投资的事情,但没怎么听说过安全问题。这就是切入点,安全必须是重点。”
尽管Autopilot名字(英文直译为自动驾驶)和马斯克的精心表述,但事实是,Autopilot在技术上并不具备“完全自动驾驶”能力。不断发生的事故和失去的生命继续证明了这一点。
“NHTSA提醒公众,目前市面上没有一辆机动车能够自动驾驶。”该机构发言人在一份调查声明中说。
目前尚不清楚,NHTSA能否纠正特斯拉的行为。这位发言人补充道,所有州的法律都要求人类司机对车辆操作负责。
由于如此多的危险源自特斯拉过度宣传驾驶辅助系统能力,更有效的约束可能来自联邦贸易委员会(Federal Trade Commission)等实体。上周,两名参议员呼吁联邦贸易委员会调查特斯拉是否利用欺诈营销,使公众处于危险之中。
8月13日,美国汽车安全监管机构启动对特斯拉Autopilot初步调查。根据NHTSA提交文件,调查涉及Model Y、Model S、Model X和Model 3车型2014款至2021款,估计有76.5万辆汽车受影响。
该机构ODI办公室表示,自2018年1月以来,已经确认11起事故。这些事故中,各种特斯拉车型在第一反应现场附近驾驶,随后撞上现场的一辆或多辆汽车。除11起事故外,该机构报告还提到17人受伤和1人死亡。
(0)

相关推荐