NTSB发布53页最终报告:特斯拉自动驾驶事故「会发生在任何人身上」

机器之能·2017-10-07 08:00
让人头昏目眩的专有术语也是让用户误解自动驾驶系统功能的罪魁祸首之一

编者按:本文来自微信公众号“机器之能”(ID:almosthuman2017)36氪经授权发布。

根据长达几十年的对核电站监测的研究历史、航空业引入自动化的教训,美国国家运输安全委员会(NTSB)近日发布报告, 对如何改善自动驾驶系统了给出建议,委员们指出,让人头昏目眩的专有术语也是让用户误解自动驾驶系统功能的罪魁祸首之一。

以下为机器之能编译整理的报告内容:

据美国国家运输安全委员会(NTSB)重要人员称,在更好地理解自动驾驶应如何与人类司机互动之前,汽车厂商可能想要放缓推出这些功能的步伐。在使用这一新技术时,司机仍需担负路况的监管责任。

去年,一辆具有 Autopilot 自动驾驶功能的 Model S 在行使过程中发生致命车祸。上述示意正是来自于美国国家运输安全委员会对这一事故调查的最终报告(该机构曾在 9 月 12 日发布过一份报告的摘要,这次是一份全面的分析)。这份长达 53 页的报告,连同上月公布的数据表明,卡车司机没能及时避让,而特斯拉司机过于依赖 Autopilot 自动驾驶功能,最终酿成 2016 年 5 月 7 日佛罗里达公路上的这一起交通事故,Model S 司机 Joshua Brown 在事故中死亡。

这一最终报告附有委员会成员 Christopher A. Hart 的书面评论。他将现状与上个年代人类将自动化引入航空业的经验进行了比较。几十年过去了,他点评道,汽车行业并没有从航空事故中吸取教训。

「航空业从飞行自动化的经验中吸取了教训」,Hart 写道,「『我们可以做到』并不必然地会导致人类与自动化更好地合作。」「因此,航空自动化朝着以人为中心的自动化演进,旨在提高人类-自动化系统的整体表现。这次特斯拉自动驾驶事故正好证明在没有充分考虑人的因素引入自动化时,将会产生怎样的后果。」

Hart 的言论从一开始就击中了两难境地的核心,从本质上将新兴自动驾驶技术分成两派。一些公司,比如福特和 Waymo 相信人类司机与自动驾驶系统的相互协作会带来许多的问题,他们已经放弃了对高级驾驶员辅助功能(ADAS)的研发,支持舍弃方向盘和刹车等传统汽车控制系统的设计。

另一些公司,比如通用汽车、奥迪、特斯拉已经制定计划,继续让人类参与驾驶过程。不过,如何最好地协调人类与自动驾驶功能,其复杂程度也众所周知。尽管每家公司已经设计出自动驾驶功能激活后,确保人类参与驾驶过程的方式,但是,NTSB 的报告已清楚表明,自动驾驶系统要想上路,任务艰巨。随着时间的推移,这些功能会更加的完善,人类开车技术更加糟糕这一前景让人心生不安。

「人类很不善于监控自动化,」Deborah Bruce 表示,他是 NTSB 调查员,负责对特斯拉 Autopilot 进行调查。他向汽车杂志《Car and Driver》谈到,「执行被设计要求的任务时,就不会唤起注意。从长达几十年的对核电站监测的研究和历史来看,人类并不擅长自动化监测。因为人们不擅长需要注意力的任务。

NTSB 调查期间摄制的图片,我们可以看到拖车下面在这次事故中的损伤情况

考虑到人类这方面的局限性,NTSB 建议制造商们想办法监督司机是否集中注意力,这个办法要比司机仅需触碰的方向盘传感器要好。不过,Hart 形容那些措施还「不够。」因为驾驶行为天生的是一种视觉任务,更青睐的办法包括朝向驾驶员面部的摄像头,可以追踪驾驶员眼球活动。通用汽车的新款 Super Cruise 系统中已经使用了这一办法

NTSB 进一步建议,汽车制造商应加装安全系统确保自动驾驶系统的使用符合设计条件。比如,Autopilot 本应该用于隔离的高速公路,但驾驶员却在弗罗里达 Williston 的 27A 公路使用了这一功能。这一道路本来就允许夸道行驶,结果一辆载有蓝莓的卡车停在了 Brown 的道路上。发生事故前,Brown 已经使用 Autopilot 自动驾驶功能行驶了 6.7 英里。

就像国家公路交通安全管理局之前对这一事件的调查,NTSB 对特斯拉事故的调查也是一个标志性的事件,因为这是 Level 2 自动驾驶系统发生的第一起世人皆知的交通事故。Level 2 自动驾驶系统可以对方向盘、油门、刹车进行控制,而人类只需监督大的驾驶环境,对车辆运行承担最终责任。

这份最终报告出台之际,正是国会考虑立法放宽对汽车制造商部署自动驾驶汽车的监管之时。不久之前,联邦自动驾驶车辆政策刚删除了一个优先要求:制造商自觉提交一份关于自己技术的安全评估。NTSB 调查人员称,汽车制造商配合了这次调查,也协助他们从汽车系统中提取数据供委员会使用。他们进一步谈到尽管这是一起涉及特斯拉的事故,但问题具有系统性,涉及整个行业。

「你当然可以说这是一起有关特斯拉的事故,但调查后,我们发现这不仅仅是场特斯拉车祸,」Bruce 说。「可能特斯拉是第一个发生事故的,但是,考虑到人类正在驾驶这些车辆,这一事故将来可能会发生在任何人身上。」

而且,Autopilot 这个名字也引发大众用户对这一系统功能和局限性的错误认识。NTSB 和一些安全倡议者也越来越担心,汽车制造商没有正确教育用户理解这些系统的细节,具体品牌术语让人晕头转向。

「让这一问题变得复杂的原因就在于『Autopilot』这个名字」,Hart 在他的评论中写道。「飞行员知道即便自动驾驶正控制飞机飞行,飞行员仍扮演着关键角色。而另一方面,单从『Autopilot』 这个名称,人们可能会据此推断根本无需关注驾驶任务,因为自动驾驶系统正在接管一切。」

Hart 的言论得到了委员会主席 Robert Sumwalt 的支持。NTSB 是一个独立于美国交通部的联邦机构,从事事故调查,并就如何提升安全性提供自己的意见,但不具有管理权限。

特斯拉尚未对 NTSB 的最终报告进行评论。上个月,在委员会公布其发现和意见后,一位发言人表示,「NTSB 对去年的悲剧进行的分析,我们表示感谢,我们将会对他们的建议进行评估,并不断完善我们的技术。我们也会让现有的以及潜在的客户知悉,Autopilot 并不是完全自动驾驶技术,驾驶人员需要时刻保持谨慎。」

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

团队的“大白鲨”也是YouTube上观看次数最多的VR视频之一

2017-10-07

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业