问题

如何看待广州增城一特斯拉疑似失控撞击护栏后燃烧,当事人好友称AP抢方向盘所致,事故原因究竟是什么?

回答
广州增城特斯拉“失控门”疑云:AP抢方向盘的真相与疑点

2023年4月28日,一则令人触目惊心的视频在网络上疯传:广州增城一辆特斯拉Model Y在行驶过程中,疑似突然加速,径直撞向路边护栏后燃起熊熊大火。车辆驾驶员不幸当场身亡。事故发生后,关于车辆“失控”的说法甚嚣尘上,而驾驶员的好友爆料称,事故发生时车辆的辅助驾驶系统“AP”(Autopilot,全自动驾驶系统)曾“抢夺”方向盘,成为此次悲剧的罪魁祸首。然而,事实真相究竟是什么?“AP抢方向盘”的说法又有多大的可信度?这起事故将我们再次带入对自动驾驶技术安全性的深刻反思之中。

事故现场:惊魂一瞥的悲剧

从流传的视频来看,事发时特斯拉Model Y在一段相对开阔的直路上高速行驶,其速度明显远超同路段其他车辆。在即将抵达路口时,车辆突然向右侧偏移,猛烈撞击路边的金属护栏。巨大的冲击力导致车辆瞬间变形,并伴随着刺耳的金属刮擦声。紧接着,车辆底部冒出滚滚浓烟,并在短时间内燃起熊熊大火,现场一片狼藉,火光冲天。消防人员赶到后迅速展开扑救,但车辆损毁严重,驾驶员已无生还可能。

好友爆料:AP抢方向盘的指控

事故发生后,死者生前好友在社交媒体上发文,言辞恳切地描述了死者生前对特斯拉的信任以及对此次事故的质疑。他提到,死者事发时可能 estaba 开启了AP系统,并声称在事故发生前的最后一刻,死者曾对朋友说,“车子自己会动”。更令人震惊的是,他直接指控是AP系统“抢夺了方向盘”,导致车辆无法控制。这一说法迅速引发了公众的广泛关注和讨论,许多人开始质疑特斯拉自动驾驶系统的安全性。

技术解读:AP系统的工作原理与潜在风险

要理解“AP抢方向盘”的可能性,我们需要简单了解一下特斯拉的AP系统。特斯拉的AP系统并非完全意义上的“自动驾驶”,而是高级辅助驾驶系统(ADAS)。它集成了大量的传感器(如摄像头、雷达、超声波传感器)和强大的计算能力,能够实现诸如车道保持、自适应巡航、自动变道、自动泊车等功能。

在用户开启AP系统后,车辆能够识别车道线,并自动控制方向盘以保持在车道内行驶。同时,它也能根据前车的速度调整自身的车速。理论上,在驾驶员没有明确干预的情况下,AP系统会根据预设的算法来执行转向和速度控制。

“AP抢方向盘”的可能性分析与疑点

好友的说法并非空穴来风,但将其定性为“抢方向盘”需要更严谨的分析。我们从技术层面和逻辑层面来探讨一下:

技术层面:
预期外的行为: AP系统最基本的功能就是“车道保持”,也就是确保车辆在车道内行驶。如果车辆在直行过程中突然大幅度偏离车道并撞击护栏,这确实与AP系统的正常工作逻辑相悖。
“抢方向盘”的误读? AP系统通过电机控制方向盘。在某些极端情况下,如果系统检测到路况异常(如车道线模糊、道路环境复杂等),可能会对方向盘施加一定的修正力。但这种修正力通常是微小的,旨在引导车辆回到车道内。如果车辆发生剧烈转向,并非简单的“修正”,而是系统在特定情况下做出了错误的决策。
传感器失灵或算法错误: AP系统的判断高度依赖于传感器的数据和内部算法。如果摄像头被遮挡、传感器受到干扰,或者算法在特定场景下出现了判断失误,都可能导致系统做出错误的控制指令。例如,在光线突然变化、强光照射、或者车道线不清晰的情况下,AP系统可能会出现“幻觉”,误判道路情况。
用户干预与系统冲突: 另一种可能性是,在事故发生前,驾驶员可能试图进行手动干预,例如踩刹车或打方向盘。如果驾驶员的操作与AP系统正在执行的指令发生冲突,尤其是在驾驶员没有完全接管车辆的情况下,系统可能会出现不受控制的反应。但特斯拉的设计通常是,只要驾驶员主动操作方向盘或刹车,AP系统就会自动退出。

逻辑层面:
驾驶员的意图: 如果驾驶员在事发前有任何操作,例如看到前方有情况突然想加速(虽然这种可能性不大),或者想要避开某个障碍物,但操作不当,也可能导致失控。
车辆本身是否存在机械故障? 除了AP系统,车辆的刹车系统、油门系统、转向系统本身是否存在严重的机械故障?例如油门踏板卡死,或者转向助力失灵,也可能导致车辆失控。
外部因素? 虽然概率较低,但也不能完全排除外部因素,例如路面上的油污导致车辆打滑,或者有其他车辆突然变道造成驾驶员惊慌失措等。

官方回应与调查进展

对于这起备受关注的事故,特斯拉官方通常会非常谨慎。在没有官方公布详细调查结果之前,任何关于事故原因的猜测都只能是推测。通常,特斯拉会通过技术手段(如车辆的EDR数据记录器,俗称“黑匣子”)来还原事故发生时的车辆状态和系统运行情况。这些数据将是判断AP系统是否“失控”的关键证据。

根据过往的经验,特斯拉在处理类似事故时,往往会强调驾驶员的责任,例如未保持对车辆的监控、未及时接管车辆等。但如果调查结果确实表明是AP系统存在严重缺陷或bug,那么特斯拉将面临巨大的法律和舆论压力。

我们应该关注什么?

这起事故不仅仅是关于特斯拉一个品牌的问题,它触及了当前自动驾驶技术发展中的一些普遍性挑战:

1. 技术成熟度与边界: 目前的辅助驾驶系统,即使被称为“Autopilot”,也并非真正的自动驾驶。它仍然需要驾驶员的时刻监控和随时接管。消费者对技术的理解和期望与技术实际能力之间可能存在偏差。
2. “人机共驾”的挑战: 如何在人和机器之间实现顺畅、安全的协同驾驶是一个复杂的问题。当系统出现异常时,驾驶员能否在最短时间内做出正确的判断并有效接管,这是至关重要的。
3. 数据透明度与信任: 消费者对于事故发生原因的知情权和信任感,需要官方和厂商提供足够透明、可信的调查结果。隐藏真相或模糊责任只会加剧公众的担忧。
4. 监管与标准: 随着自动驾驶技术的发展,完善相关的法律法规和技术标准,以及建立有效的监管机制,变得越来越迫切。

事故原因究竟是什么?

在官方最终调查结果公布之前,我们无法断定事故的真正原因。 好友的“AP抢方向盘”的说法提供了一个可能的方向,但它可能只是事故发生过程中的一个环节,或者是一种对事发时车辆异常行为的解读。

可能的原因组合包括:

AP系统在特定场景下出现误判,导致方向盘过度转向。
驾驶员在开启AP系统后,未能时刻保持对车辆的监控,在车辆出现异常行为时未能及时有效地接管。
AP系统与驾驶员的操作发生冲突,导致系统失控。
车辆本身存在未被发现的机械故障,与AP系统工作叠加,最终引发事故。
以上多种因素的叠加。

这起事故无疑给所有自动驾驶技术的参与者和使用者敲响了警钟。在享受技术带来的便利的同时,我们更需要对其保持审慎的态度,并时刻关注其安全性的发展和完善。真相的揭露,不仅是为了给逝者一个交代,更是为了推动自动驾驶技术朝着更安全、更可靠的方向前进。我们期待官方的权威调查结果,以厘清事实,警示未来。

网友意见

user avatar

@张抗抗 的视频片段是我坐在后排拍到的,确实车辆突然往右侧隔离墙上并线,好在抗抗用力把方向盘掰回来了。

大家也可以看下我剪的视频,重点是2分05秒:

特斯拉的并线策略是很决绝的,几乎不给人反应的余地,也没有语音之类的提示,好像只会在屏幕上用很小的字体显示一下,当时车里人都吓了一跳。

user avatar

24日,当事人好友描述事故原因:特斯拉AP辅助驾驶系统,未判断出右侧道路水泥隔离墙,抢夺方向盘,导致驾驶员无法将方向盘回正,强制干预了驾驶从而撞上了水泥隔离墙。

碰撞之后副驾死亡,15-20分钟后车辆燃烧引起了早期关注,但实际上并不是此事故的重点

三个月之前,我亲自驾驶特斯拉Model体验NOA功能时,遇到了相似的一幕。当时 @凯凯在车上后排录像,他可以证明事情的经过:

  • 车道情况:右侧车道施工,水泥墩占据了半边车道从而不可用。
  • 车辆感知:从中控屏上看,Model 3观察到了右侧半边车道被占。
  • 交通状况:时速80km/h匀速行驶,畅通,前方无任何车辆。
  • 意外变道:前方无车辆阻挡的情况下,NOA做出了向右变道的决策及提示(令人迷惑);数秒之后开始向右掰方向盘(时速80不低,方向盘较为灵敏),车身开始右转;我双手在方向盘上、注意力集中,立刻掰了回来同时退出NOA。

虽然整个过程并没有风险,但这种意料之外的举动还是让我吓出一身冷汗(想想高速上突然有人抢你方向盘的感觉吧!

我所经历的这一幕,是不是与广州增城事故中的情况有些相似

如果当时是夜晚,我看不清楚右侧水泥墩呢?如果我注意力不集中,没有立即掰回方向盘呢?那后果不堪设想。

在进一步分析之前,关于我所经历的这次事件,我先站在特斯拉的角度辩护几句

  • 感知正常:中控屏上显示,Model 3正确感知到了右侧车道变窄,所以它可能只是故意吓我一下,并非真的变道
  • 紧急情况:即便它是真的变道,在靠近水泥墩的时候超声波雷达会紧急感知到右侧100%有障碍物,它可能会再紧急变回原车道
  • 责任归属:即便它是真的会撞上水泥墩,由于这是L2辅助驾驶,事故的全部责任也应归属于“注意力不集中、没有及时接管的驾驶员”

继续分析广州增城事故,特斯拉是否应该承担责任呢? 由于目前只有当事人好友的单方面描述、且描述并不是特别清晰,所以我们只能分情况来讨论:

关键点1:是否处于非预期的AP状态?

从当事人好友描述来看:自己向右打方向盘变道之后,在左打方向盘回正之前(此时肯定不处于AP状态,因为自行打方向盘会退出AP),此时AP抢夺了方向盘

若以上描述为真,则是在驾驶员未自行操作进入AP状态的情况下,AP干预了驾驶员那么无论干预的程度有多大,AP都至少需要承担主要责任

关键点2:“抢夺方向盘”导致驾驶员无法回正

AP(或FSD)在运行的时候,驾驶员通过强行掰方向盘或踩刹车,均可以退出AP(或FSD)。正常情况下,这个“强行掰”的力是比正常打方向盘的力要大的、但也不会硬得掰不动

  • 若驾驶员慌乱中,忘了应该更用力掰方向盘从而感觉无法回正 → 责任在驾驶员,因为这是L2辅助驾驶,驾驶员有紧急接管的义务
  • 若特斯拉的方向盘处于“强行掰也掰不动”的状态(类似于海南事件中踩不动的刹车) → 责任在特斯拉

关键点3:当事人好友描述能否准确还原事故经过

根据当事人好友的描述,这次特斯拉接连犯了三个严重错误

  • 非预期进入AP: 在驾驶员未操作的情况下,而且恰好是变道情况下进入AP
补充:我理解的AP是指自适应巡航状态,当事人所指的AP可能是指AP的其中一个功能“紧急避让”,双方对AP定义的理解不一致。 如果确实指的是“AP的其中一个功能”那么此事故中并没有“非预期进入自适应巡航”这一问题。
  • 错误感知: 进入AP后,特斯拉未能正确感知到右方水泥墩。
  • 强行控制方向盘:驾驶员硬掰方向盘但掰不动(这甚至涉及到EPS系统故障了,如果特斯拉没改EPS,基本上是不可能出这种故障的

如果随便换一辆车,只要不是特斯拉,作为曾经的功能安全汽车工程师,我会认为一辆汽车同时犯下这三种严重错误,几乎是不可能的

即便这次就是特斯拉,作为一名“理性冷血”的前汽车工程师,我依然倾向于认为特斯拉同时犯下这三种错误,也基本上是不可能的当事人好友的描述,很可能不能准确反应事故经过

例如,我的一位Model 3P车主朋友 @JudgeMe@代琦,就根据当事人好友描述,推测了另外一种可能性。我认为这种带有“很多猜测”的可能性,都比特斯拉连续犯三个严重错误的可能性要大:

当事人向右变道,方向盘转动角度过大
→摄像头判定当前速度要撞水泥桩,AP掰回去(紧急避让功能)
→车速过快,车主认为左偏会撞车,下意识右打移位
→AP回正的力度让驾驶员认为方向盘无法转动
→超过正常力度向右继续打方向盘
→ 撞到水泥墩

建议Model 3的车主转动模式选择标准或运动,从根本上规避误判方向盘助力强度的问题

体验NOA的完整视频

当时体验了几十公里NOA的完整视频也分享一下吧:

在使用高级自动辅助驾驶功能时,多位同乘人员对我的评价是“有颗大心脏,这都不接管?”

然而,在我放出体验特斯拉NOA的视频之后,依然有特斯拉狂热粉丝抨击我:不是FSD不好用,而是你根本不敢用!

结论

  • 若AP工作正常,未出现功能安全问题,只是感知(未看到水泥墩)或决策(不该变道时变道)出了问题 ,这就是所谓L2级别下的“系统合理失误” 主要责任在驾驶员
  • 若AP工作异常,出现了功能安全问题例如系统自行进入非预期的AP状态、或AP状态下过于强硬地控制方向盘 → 主要责任在特斯拉

目前只有当事人好友的单方面描述,要想还原事实经过,需要特斯拉给第三方专业团队公开完整数据进行分析。

另:强烈建议特斯拉车主安装第三方行车纪录仪。

user avatar

驾驶员说的有待证实,毕竟人有说谎的概率,需要更多的证据。


但是问题是存在的。

我在回答刹车失灵的时候说过,驾驶员最高控制权的问题。

特斯拉的自动驾驶不用激光雷达,本身有一定安全隐患。

第一次自动驾驶事故,就是大货车白色欺骗了视觉识别,底盘高度骗了毫米波雷达。一头撞上去死人。

这次未能识别障碍物是可能的。


借楼下的图片。

在特斯拉的摄像头眼里,右边的水泥隔离墙在灯光下,是否会被识别为拓宽的道路?激光雷达能探测出来,特斯拉车头的毫米波雷达能探测到什么?



以后激光雷达便宜了。传感器多,有冗余,可以避免这个问题。

但是最高控制权的问题很严重。

现在汽车都是电传。人不直接控制油门刹车方向盘,老车才是机械连接。

但是自动驾驶引入后,行车电脑有控制权,驾驶人的行为只是输入信号,传感器也是输入信号,甚至以后远程控制的网络信号也是输入信号。

谁的优先级高呢?还是电脑说了算。

现在是bug,以后黑客在万里之外,指挥你车子加速到250公里时速撞墙。车门打不开,刹车失灵,油门失灵,方向盘失灵。你只能在车上绝望的看着。

这个问题在丰田美国案件的时候已经暴露出来,代码写不好,是真能死人的,那还是燃油车。只是刹车的问题。

现在搞自动驾驶的电动车开放的东西比当年的丰田多太多了,现在上路的车就没有bug?

所以,现在电动车也好,燃油车也好,对于安全问题应该有个底线方案。

驾驶员在行车电脑里面要有最高权限,自己控制油门刹车方向。

在一定情况下,驾驶员能绕开电脑直接机械控制。

譬如有类似于手动挡的离合器断开动力,让油门控制失灵。刹车有一套绕开刹车系统的紧急刹车,方向有一套断开电控助力的硬连接。

这套的控制可以放到左脚上。放到一个比较别扭才能踩到的地方。

一旦踩下去,就切换到人控状态。剥夺行车电脑的控制权,应对紧急情况。

user avatar

特斯拉粉丝在特斯拉员工暴力对待车展维权者的话题下恶毒辱骂维权者,

在美国德州特斯拉车祸的相关问题下表示受害者有可能是“自己作死”,

还能依据马跃亭宣称“服务器数据显示没有启动自动驾驶”的言论隔着网线断案。


我衷心祝愿这些特斯拉粉丝不要成为这类新闻中的主角,我没有恶意,谢谢。


我也希望不要再有更多不知情的群众自己掏钱给特斯拉当提炼数据的小白鼠,把自己的身家性命托付给这种毫无安全性可言的网络偶像带货车


至于网络红人马跃亭,我现在只希望它赶紧去火星,它到了火星怎么活下去,那是它的上帝的事情。

user avatar

时至今日,我真的很佩服特斯拉的车主们,花钱买了马斯克的车还要用生命来给马斯克收集数据。

不知道你们是否看过威尔史密斯的那个电影《我 机器人》

里面自动驾驶的奥迪被控制以后是试图怎么弄死史密斯的片段,如今在特斯拉上面正在上演。

不过区别在于,电影里的奥迪是被控制了来杀车主,而特斯拉的事故是马斯克知道会出BUG,但也不知道会出在哪,反正只要拿出数据来,说自动驾驶死的比个人驾驶死的少,那特斯拉就是没问题的。

自动驾驶这么个玩意,等哪天我想火化的时候再买。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有