【开着开着就撞了!前Uber自驾负责人谈特斯拉FSD事故】Mozilla首席技术官、前Uber自动驾驶汽车部门负责人拉菲·克里科里安3月17日在《大西洋月刊》发表长文,描述了他驾驶特斯拉Model X(FSD模式)时所发生的一起严重车祸,并从专业角度剖析了特斯拉FSD的核心问题。
克里科里安曾执掌Uber自动驾驶团队,负责训练安全驾驶员如何在系统失效时及时且正确干预。在他领导该部门的两年间,Uber的早期试点项目保持着零受伤的记录。
当Model X驶入一个弯道时,FSD似乎突然迷失方向,方向盘毫无预兆地剧烈抖动,车辆开始减速。克里科里安立即抓住方向盘,但已来不及挽回。车辆随即撞上混凝土墙,当场报废。克里科里安遭受脑震荡、颈部僵硬,头痛持续数日。
尽管拥有顶尖的专业背景,FSD还是“坑”了他。此次事故发生前,他的手一直放在方向盘上,按照特斯拉的要求保持警惕。他指出,FSD实际上“训练”了他去信任它。事故发生后,出现在保险报告上的名字是他,而非特斯拉。在现行法律框架下,这是也是所有FSD事故的共同点:特斯拉FSD系统被归类为Level 2,驾驶员始终需承担全部责任。
克里科里安还提出一个关于特斯拉数据处理方式的尖锐问题。车辆持续记录驾驶员的手部位置、反应时间和视线轨迹,特斯拉在事故后常利用这些数据将责任指向驾驶员。而要求获取自身数据的驾驶员往往只能收到碎片化信息。
克里科里安还对“监督式”自动驾驶根本缺陷进行了分析。他的核心论点是:特斯拉要求人类监督一个专门设计得让监督显得毫无意义的系统。这也是目前几乎所有Level 2辅助驾驶车辆事故中的共性——在事故真正发生到自己头上之前,坚持认为辅助驾驶功能完美可靠,甚至开车睡觉。
心理学家称,在辅助驾驶系统退出后,驾驶员往往需要5~8秒才能重新集中精神,紧急情况下根本来不及反应并接管。
在这起事故中,克里科里安自己确实采取了行动,但他需要在最后一秒的时间内克服长期训练出的信任惯性、从乘客状态瞬间切换回驾驶员状态,可以说几乎不可能完成。事故车日志也证实他打了方向盘,但仍无法在事故前的1秒中完成逆转。
根据克里科里安的描述:特斯拉先让驾驶员对FSD产生好感,再用数月流畅表现削弱其警惕性,导致驾驶员对这种“实际上并非100%可靠的辅助驾驶功能”产生心理依赖,最后在出问题时搬出服务条款将责任归咎于驾驶员——FSD没出问题时特斯拉获得赞誉,出问题时驾驶员全责。各位网友,您怎么看?(IT之家)
