2022-06-19 特斯拉自动驾驶再受质疑
金磊 丰色 发自 凹非寺
量子位 | 公众号 QbitAI
一场针对 特斯拉 轩然大波
甚至有网友用 “史诗级”
这份调查来自 美国高速公路安全管理局 (NHTSA)
Autopilot aborted vehicle control less than one second prior to the first impact.
在
撞击前
不到1秒钟
,Autopilot中止
了对车辆的控制。
NHTSA发现的这个事,宛如向民众投掷了一枚重磅炸弹。
因为它就好比“车在撞到你之前,机器人才把方向盘交到你手上”……
然后许多网友就纷纷展开了质疑:
如此设计,特斯拉就可以否认事故是因为Autopilot了?
啊,这……
事故前不到一秒,把方向盘交到你手上
NHTSA对特斯拉的调查自去年8月就已经开始。
展开调查的直接原因,是有不止一辆特斯拉在开启自动驾驶系统Autopilot的情况下,闯入已有事故现场, 撞上明明早已停在路边的急救车、警车或者出事车辆
不查不知道,一查吓一跳。
他们发现,在 16起 (FCW) (AEB)
不过最后都失败了 (有一人不幸死亡)
可怕的是,平均而言,这16起事故中,Autopilot都是在汽车发生实际撞击前 不到一秒
而这,完全没有给够人类司机接手的时间。
事故视频显示,人类司机基本上在碰撞前8秒都注意到了前方的已有事故现场。
但其中11起事故的法庭数据显示,在碰撞前2-5秒内,没有人类驾驶员采取回避措施,虽然他们都按照Autopilot的要求,把手放在方向www.czybx.com盘上。
或许大多数驾驶员彼时彼刻仍然“相信”Autopilot——其中有9辆车的驾驶员在碰撞前的最后一分钟内都没有对系统发出的视觉警报或提示音警报作出反应。
不过也有四辆车根本就没给出任何警报。
现在,为了进一步摸透Autopilot和相关系统的安全性 (究竟能在多大程度上破坏人类司机的监督从而加剧风险) 初步调查//www.czybx.com升级为工程分析 (EA)
并将涉及车辆扩大到特斯拉现有所有四种车型:Model S、Model X、Model 3和Model Y,共计83万辆。
而此调查结果一经曝光,就开始有受害者现身说法。
一位用户就表示,早在2016年的时候,她的Model S也是在变道时撞上了停在路边的一辆车。但特斯拉却告诉她,这是她的错,因为她在撞车前踩下了刹车,导致Autopilot脱离了控制。
该女士称,可是这时系统发出了警报了呀。等于我怎么做都//www.czybx.com有错呗,我不踩刹车又得赖我不注意警报。
不过马斯克并未就此事作为回应,只是恰巧在网友爆料发生后6小时,发了一条推特,扔出了 NHTSA早在2018年
该报告称特斯拉的Model S (2014年出产) (2015年出产)
现在他们又发现,新出的Model 3 (2018年出产)
△ 特斯拉还借机作了一波宣传
这是对前几日上海特斯拉车祸中“车毁人未受伤”事件的回应。
有意思的是,就在大家都在声讨特斯拉自动驾驶这么不靠谱时,有人站了出来,称大家黑特斯拉黑“魔怔”了吧。
实际上,特斯拉在事故发生1秒前中断Autopilot并不会将锅甩给人类,他们在统计特斯拉事故时,只要碰撞发生时 5秒内Autopilot在工作,就会把责任算给Autopilot
而后,特斯拉官方也出来证实了这一规则。
不过,虽说人类不用背锅了,但事故发生1秒前才将自动驾驶切断这一“骚操作”,还是无法改变人类驾驶员来不及接过方向盘的事实。
Autopilot,到底靠不靠谱?
在看完NHTSA的调查结果后,我们回头来看看这次舆论焦点的 Autopilot
Autopilot是出自特斯拉的一套高级驾驶辅助系统 (ADAS) (SAE) L2
(SAE将自动驾驶分为了六个等级,从L0至L5)
根据特斯拉官方的描述,Autopilot目前具备的功能包括在车道内自动辅助转向、加速和制动,自动泊车,以及从车库或停车位“召唤”汽车等。
那么这是否意味着驾驶员可以完全“托管”了呢?
并非如此。
特斯拉目前阶段的Autopilot只是能起到“辅助”的作用,并非是完全自动驾驶。
而且还需要驾驶员“主动”、“积极”地去监督Autopilot。
但在官方介绍中,特斯拉对于“全自动驾驶”的能力也做了些许的描述:
所有新款特斯拉,都具备未来几乎所有情况下完全自动驾驶所需的硬件。
能够在不需要驾驶员的情况下,进行短途和长途的旅行。
不过要想让Autopilot实现上面的这些目标,很重要的一点就是在安全性方面远超人类。
在这一方面,特斯拉表示已经在数十亿英里的实验中证明了这一点。
而且 马斯克
特斯拉全自动驾驶的安全水平远高于普通司机。
但事实是这样吗?
暂不论特斯拉和马斯克给出的评价,单就从现实角度出发,特斯拉的Autopilot在安全性方面可谓是饱受的争议。
例如屡见不鲜的 “幽灵刹车”
“幽灵刹车”,指的是当驾驶员开启特斯www.czybx.com拉Autopilot辅助驾驶功能以后,即便车辆在前方没有障碍物或者不会与前车发生碰撞的前提下,特斯拉车辆会进行非必要的紧急刹车。
这就给驾驶员以及道路中的其它车辆带来巨大的安全隐患。
不仅如此,若是细扒与特斯拉这家公司相关的热点事件,不难发现有许多都是与Autopilot的安全性相关:
那么NHTSA对此又是怎么看的呢?
在这份文件中NHTSA提醒,目前市面上没有完全自动驾驶的汽车,“每辆车的都要求驾驶员在任何时间都要处于控制状态,所有州的法律都要求驾驶员对其车辆的操作负责。”
至于这份调查将来会对特斯拉造成什么影响,根据NHTSA的说法:
如果存在与安全相关的缺陷,有权向制造商发出“召回请求”信。
……
最后,做一个小调查——你是否信任Autopilot呢?
完整报告:
https://static.nhtsa.gov/odi/inv/2022/INOA-//www.czybx.comEA22002-3184.PDF
参考链接:
[1]https://twitter.com/muttgomery/status/1535353454905917446
[2]https://twitter.com/MattPotter/status/1535753166880444416
[3]https://fortune.com/2022/06/10/elon-musk-tesla-nhtsa-investigation-traffic-safety-autonomous-fsd-fatal-probe/
[4]https://www.caranddriver.com/news/a40260652/teslas-autopilot-nhtsa-investigation-recall-possible/
[5]https://www.tesla.com/autopilot
[6]https://twitter.com/elonmusk/status/1345208391958888448?lang=en
[7]https://www.cbsnews.com/news/tesla-safety-complaints-phantom-braking-probe-nhtsa/
— 完 —
量子位 QbitAI 头条号签约
关注我们,第一时间获知前沿科技动态
内容版权声明:除非注明原创否则皆为转载,再次转载请注明出处。
文章标题: 2022-06-19 特斯拉自动驾驶再受质疑