百科问答小站 logo
百科问答小站 font logo



如何看待美一好公司创始人林文钦驾驶蔚来ES8汽车启用自动驾驶功能后,在高速发生交通事故不幸逝世? 第2页

           

user avatar   ze_h 网友的相关建议: 
      

作为一名自动驾驶行业的从业者,看完讣告后心里挺难过的。

可能很多年后,历史会这么记录这一时期:

“自动驾驶技术刚出现的时候,还很不成熟,但却有不少人因为被误导,以为已经足够成熟了,并因此丢掉了性命。”


早在2013年,谷歌就在研发一批具备一定自动驾驶能力的车,而且征集了一部分员工进行内部测试,给他们每人分发了一辆车,告诉他们在车上不能分神,注意力必须放在驾驶上,并且很严肃地警告他们,如果车内的摄像头发现他们没有严格遵守这个规定,会马上收回车辆。

但在测试的过程中,谷歌发现有好几个员工都没有严格遵守规定,并且有一位员工直接在车上睡着了——他睡着的时候,车辆正以55英里每小时的速度在路上飞奔。

在这件事发生了以后,谷歌就彻底关闭了这个项目,并开始专心研发L4级别的无人驾驶技术。[1]

可以说,在2013年谷歌就意识到类似NOP的功能的普及需要挑战人性。

蔚来的NOP是什么?

NOP的全称是Navigate on Pilot,中文是领航辅助,一般对外宣传会说是“实现A点到B点自动领航驾驶,包括自动上下匝道、超车、并线、巡航行驶等功能”。


属于介于L2至L3级别之间的自动驾驶功能。


说实话,最大的作用只在于你对路不熟的时候不容易开错路,因为方向盘会提醒你一下。

绝对不要让车辆自己驾驶,重要的事情说三遍:

不要走神。

不要走神。

不要走神。


为什么自动驾驶会出问题?

无人驾驶技术目前还存在没解决的问题,或许技术上已经解决了90%的问题,但剩下的10%却可能要花费同样多甚至更多的精力,这10%包括很多长尾问题,经常被称为Corner Case。在没有全部解决这些长尾问题的情况下,就依然需要有人员介入。

目前已经量产的车辆不涉及特别复杂的车辆控制问题,所以目前这些问题大都集中在感知领域,也就是错误识别物体或者根本没有能识别出有物体。

单纯靠摄像头没法保证能识别所有东西。人靠眼睛在开车,摄像头离人类的眼睛还有很长距离的,人的眼睛是非常强大的传感器,低功耗,大部分光线情况下都能起作用,还自带防尘装置——眼皮。

大家会说人工智能不是很神了嘛,为什么那么大一台车在前面还识别不出来?

根源是在于人工智能的“可解释性”挑战,现在的机器学习就像一个黑盒子,你给这个黑盒子一个照片,黑盒子会告诉你这个照片里有什么没有什么,但黑盒子却不会告诉你为什么有或者为什么没有。

不可解释的黑盒子系统是不能用在关乎安全的应用领域的,自动驾驶尤其是这样。

有不少人工智能公司会认为大量的数据就能让人工智能更精准、更智能,但终究还是一个黑盒子,根本不是单纯靠大量数据能解决的。

这也是为什么越来越多车厂在新车上装激光雷达,激光雷达和摄像头之间可以交叉验证、互为冗余,摄像头看不到的东西激光雷达能感知到,激光雷达感知不到的,摄像头可以。


目前自动驾驶功能运转下出了事故能找谁?

事故责任只能是自己承担。

L3以下级别的自动驾驶要求司机随时把注意力都放在驾驶上,所以出事故了,按照现有交通法规,只能认定是司机在违规驾驶。

2016年1月20日,是中国首例“自动驾驶”致死车祸发生的时间,也是全球首例。当时在京港澳高速河北邯郸段上,一辆特斯拉轿车直接撞上一辆正在作业的道路清扫车,特斯拉司机高雅宁当场身亡。[2]



后来经交警认定,在这起追尾事故中驾驶特斯拉的司机高雅宁负主要责任。

家属状告特斯拉只能以“宣传误导”的名义,索赔一万元,但这起案件过去五年了,至今还悬而未决。[3]


没有法律法规能管一管吗?

没有。

联合国欧洲经济委员会(UNECE)在2020年6月发布了《 ALKS 车道自动保持系统条例》,要求汽车制造商必须满足该法规中明确的性能要求,才能销售配备 ALKS 的车辆。

这是全球范围内第一个针对具备L3 级自动驾驶能力量产车型的国际法规,但中国表示暂时不会应用该法规。

国内近期的一项相关法规是前两天工信部印发的《关于加强智能网联汽车生产企业及产品准入管理的意见》,其中要求:[4]

企业实施在线升级活动前,应当确保汽车产品符合国家法律法规、技术标准及技术规范等相关要求并向工业和信息化部备案,涉及安全、节能、环保、防盗等技术参数变更的应提前向工业和信息化部申报,保证汽车产品生产一致性。未经审批,不得通过在线等软件升级方式新增或更新汽车自动驾驶功能。

但具体怎么审报、怎么审批才能保证车辆的软件到达一定水平?

仍然是一个未解的难题,详细可看:工信部发布意见:企业不得擅自升级新增汽车自动驾驶功能,会带来哪改变?


如何正确地挑选配备了L2-L3级别自动驾驶功能的车?

此类自动驾驶功能一定要配合完善的驾驶员监控系统(DMS,Driver Monitoring System)才能保证安全。

驾驶员监控系统一般是用摄像头来监控司机的状态的,会实时地监测你的视线是否在前方,如果监测到你持续一段时间分神,便会通过声音或振动来提醒你。如果出现了系统应付不了的情况,比如恶劣天气、没有GPS信号的隧道等,系统也会提醒你及时接管。

还有的是给方向盘装监控传感器,假如监测到司机脱离方向盘超过一定时间,就会报警,并自动停车。

有了驾驶员监控系统,才不会让你过度放松警惕,把自己的生命暴露在危险之下。

参考

  1. ^ https://www.businessinsider.com/google-ditched-system-similar-to-tesla-autopilot-in-2013-2019-9
  2. ^ http://www.xinhuanet.com/auto/2018-03/05/c_1122486792.htm
  3. ^ https://baijiahao.baidu.com/s?id=1698451502425177543&wfr=spider&for=pc
  4. ^ https://www.miit.gov.cn/jgsj/zbys/wjfb/art/2021/art_7cb8a0949a8e45c5979c0f73788d1184.html

user avatar   davidtsang 网友的相关建议: 
      

1、对自动驾驶吹捧最厉害的,往往都是那些不懂自动驾驶的。

2、我确信,程序员不会因为自动驾驶技术身亡,因为程序员知道自动驾驶这玩意根本不靠谱。当前自动驾驶采用的人工智能技术非常低级,其处理过程是个黑盒,不可控从而导致不可靠,连程序员自己都不知道算法是如何得出结果的,纯粹的概率和统计学游戏,不适用于任何严肃场景应用,随时都能给你“惊喜”。

3、虚假宣传真能害死人

4、L3级别的自动驾驶是最危险的,应该在法律上予以禁止

5、由于理论和技术限制,在可预见的未来,L4级别以上自动驾驶技术无法达到商用安全标准。投再多钱都没有用。

时速120公里的汽车,每秒行驶出去33米,这就造成了不仅是人工智能算法要具备可靠性,还有实时性要求都很高,现有的算法、CPU硬件架构、操作系统都很难满足自动驾驶的实时性要求。


user avatar   xin-dai-diao-cha 网友的相关建议: 
      

希望悲剧不再发生,逝者安息,生者前行!

社会是加速发展的。传统汽车工业发展了上百年,而自动驾驶技术在最近短短的十几年里取得了突飞猛进,可喜可贺。可是,毕竟自动驾驶技术还不成熟,距离普及还有很远的路要走。事实上,厂商提供的说明也是一再警告那是辅助驾驶,并没有让驾驶员躺在后座睡觉玩手机,没有让驾驶员把汽车完全交给系统。

相信,不完全信任自动驾驶的还大有人在,毕竟生命只有一次,一旦事故发生,说再多也没用。

汽车在给我们带来巨大便利的同时,每年也造成无数的交通事故,夺走无数个生命。汽车,用好了是个宝贝,用不好,就是杀人机器。

这个事件,是一次很好的安全教育案例,让我们警醒。


user avatar   sywx 网友的相关建议: 
      

个人建议,

驾驶员头顶安个摄像头,双手都离开方向盘超过一分钟,自动减速至30km/小时。


user avatar   jiang-shi-dan-dun-41-25 网友的相关建议: 
      

逝者安息。昨晚从四面八方收到了这个消息,预期今天必定是热烈讨论。

我的个人观点:

1.车企玩免责文字游戏、用户上路自由发挥的状态会持续相当长时间,这远不是最后一例悲剧。

2.所有加入智驾军备竞赛的车企,值得重新考虑投入产出比和用户期望管理方法。


“盲人骑瞎马,夜半临深池”,古人尚知道把这作为最高level危险处境。如果要把危险再提升一级,我愿把瞎马换成一匹视力时好时坏的不健全的马。它视力的薛定谔状态会让悲观者拉紧缰绳,但更会让乐观者觉得自己是瞎子也无妨,可以完全信赖座驾。

可是,不论是因为某些研究所说DRD4-7R基因的内在驱动也好、希望向他人炫耀的外在驱动也罢,偏偏人性中还是有不少该死的东西就是会让不少人去冒险,践行乐观者的角色。

下面这个视频,前不久不少群里也都分享过,难道这次的蔚来车主比拍摄者更疯狂?当然不算。

看得我们八月天如坐冰窟 https://www.zhihu.com/video/1410258890835161088

今天点不点名蔚来其实没有意义,所有自愿或者被动上了智能驾驶这条船的玩家,无人能够袖手旁观。探索无人驾驶的路到今天不知算走到了5%还是10%,但肯定还是一片大雾,离清晰太远。

在这项技术只能依靠开发端和使用端的相互作用共同进步的今天,我们面临的最大矛盾,或存在于技术的递进式渐变发展和用户使用功能的跃进式突变期待(或者理解)之间。


我就不去翻各家法务精心审核天衣无缝的免责声明了,谈点实际的。

现在预埋L4+的硬件是头部玩家的主流做法,似乎不上LiDar和Orin就撑不起高端和智能这两个字了。除了造成车企之间的成本内卷外,这本身给了用户比较强烈的暗示,更刺激他们尝试突破一些车辆现有能力的边界。能保证所有用户都真的会仔细地去研读和记忆下免责声明里的约束吗?

车辆除了A点到B点的交通工具属性外,还蕴含了太多可拓展的功能和情感,那些要素真的挖掘到头了吗?智能驾驶毋庸置疑是一条新价值之路,只是真的有必要在它还如此脆弱的时候把用户们都引导过来吗?

@三斤哥 说的,至少参考小鹏的NGP功能指引,挽救那些并不真想成为冒险家的人吧。


如希望获得新能源最新的市场分析和产品研究,欢迎关注我@僵尸丹顿,持续追踪分享解析最热门的新能源产品。


user avatar   zhangkangkang 网友的相关建议: 
      

逝者安息

一、事故是如何发生的?

现场照片1:一辆ES8与一辆施工车撞翻在地,有很多施工桩桶 。

推测是ES8撞上了静止的施工车辆。

现场照片2:ES8驾驶侧损毁严重、A住断裂,驾驶员无生存空间 。

推测,驾驶员在最后时刻意识到碰撞不可避免,于是右打方向但躲避不及,结果导致了类似25%碰撞的最恶劣情况。

逝者公司公告:事故当时启用着蔚来的自动辅助驾驶功能NOP

存疑:为什么逝者公司会这么快地确认事故当时是NOP状态呢?

如果无此公告,据我推测也很可能是NOP状态,但不敢下结论。

此事故的现场与5月份台州特斯拉撞到交警的事故相似,我猜测也是属于AP状态

即便我最终结论是特斯拉不承担事故责任,但结果被某些狂热粉丝一顿喷:

二、为什么会撞到静止施工车辆?

推测:驾驶员高估了功能边界,误以为它能识别静止车辆,所以自己没有去监测与控制

实际上,目前的自动辅助驾驶功能,无论是高阶的领航辅助驾驶功能,还是油车常配的自适应巡航ACC功能,最怕就是高速行驶过程中遇到静止车辆

原因是:目前识别障碍物最有效的车载传感器是毫米波雷达,而毫米波雷达识别不了静止物体(由于识别正确率低,从而刻意过滤掉)。具体原理可以看:

在前方道路畅通的时候,特斯拉经常会“幽灵刹车”,小鹏P7经常会有“前方可能有障碍物请注意驾驶”的误报 —— 这都是“似乎看到了障碍物所以提醒驾驶员一下”

这种误报会给驾驶员不好的感受,特别是让人觉得很不智能,所以也不可能无限度地调低报警阈值

当前的毫米波雷达做不到,那就要靠更牛逼的毫米波雷达将来的激光雷达帮助了。

当然,也有选择不一样的道路的 —— 特斯拉准备强化摄像头的视觉来帮助甚至取代毫米波雷达

三、责任如何划分

首先说明,这属于交通事故,责任划分最终以交警部门的结论为依据。

在此只是谈了一下个人推测:

  • 在车与驾驶员之间无论驾驶员是否走神,均是驾驶员承担全部责任。

原因L2自动辅助驾驶功能仅是辅助驾驶,驾驶员既是驾驶功能的主体,也是驾驶责任的主体

除此之外,蔚来ES8的自动辅助驾驶功能,本来就说明了不能应对高速遇到静止车辆的情况;蔚来AEB功能只能在85km/h以下生效,高速时不保证生效。

  • 在驾驶员与高速道路部门之间:高速施工摆放标志与桩桶是有一定规范的。我们遇到过较为规范的,提前一两公里就摆放100、80的限速标识、桩桶距离施工车辆的距离很长,这种就安全得多。如果是摆放不规范,就容易发生事故。从现场照片无法看到出施工标识的摆放情况,因而无法判断是否摆放规范。

四、那我还要不要用辅助驾驶了?

你可能会说:辅助驾驶这么可怕,我还没用过,那以后还要不要用啊

我的回答是:

  • 不会用而瞎用乱用,不如不用。
  • 如果要用,一定要时刻保持注意力,一定要了解功能的边界 —— 例如,无论是特斯拉、蔚来、小鹏、理想,还是传统油车的ACC功能,在高速最左侧车道上巡航时,必须要时刻警惕前方的静止施工车辆,这应该是常识。
  • 制止“瞎用乱用”的车主而减少事故,是有益于社会、有益于行业的行为。
  • 引导那些“安全至上、谨慎使用”的车主用得更好,是同样有益于社会、更有益于行业的行为 —— 如果你遇到一个使用辅助驾驶的人,不如就和他探讨一下“你的自动驾驶在高速时碰到静止车辆会怎么办”的话题,可能就救了他一命!!!

五、蔚来全铝车身不是很强吗,为啥撞成了这样?

确实是很强,例如中保研25%偏置碰撞:

为啥这次事故这么惨烈呢?

一是因为速度更快,时速100km/h的能量是时速60km/h能量的近三倍!

二是施工车辆的后屁股形状可能很不利于后车碰撞


user avatar   pang-qi-42 网友的相关建议: 
      


user avatar   mai-cui-ya-96 网友的相关建议: 
      

我以前一直担心很多用户对“自动驾驶”的不了解和媒体、厂商过分的吹捧,会酿成事故。

只能说……该来的迟早要来。


user avatar   zhi-ye-zi-xun-shi-jacky 网友的相关建议: 
      

当新能源汽车企业鼓吹自动驾驶技术,并以此为卖点推销给客户,没有刻意强调技术的缺陷。客户受到误导高估了自动驾驶技术,在驾驶过程中出车祸。这里头汽车企业该承担怎样的责任?


user avatar   sean-16-14 网友的相关建议: 
      

20210815更新:

我看到很多人很激动。我再补充一下。

我说的蔚来没有责任,说的是,这次事故并不是蔚来的功能失效(失灵)导致的。

但是不代表蔚来本身没有问题。问题在哪?

虽然在没有说自己是全自动驾驶,但是在各种渠道,甚至包括高层的微博中,也层写过类似的功能。这样的微博,存在一些误导,可能会让一些用户产生这个车是具备全自动驾驶功能,可以脱眼脱手使用的误解。


由此发散,那蔚来很多不了解这项功能的营销人员,做出的不当的营销行为,可能就会更多。

这是很多事故出现的导火索。这也是特斯拉当年宣传AutoPilot之后很多车企都回避自动驾驶这几个字的原因。


原答案

愿逝者安息。

首先,以这款车的功能(或者说没有激光雷达的ADAS功能),并不能准确的识别静止或接近静止的物体。

这是现在的技术限制,没错,就算不跟三体文明对比,人类也还是这么弱鸡。很多看似简单的问题解决不了。这也就是为什么,高级别的驾驶辅助需要多种传感器融合,互相配合的原因。

传感器的融合

其次,蔚来有没有告诉使用者在功能方面的局限性呢?有,在NOP的注意事项中明确提示了,驾驶员需要保持注意。

基于以上两点,我认为这个事故,蔚来并没有责任。

那这个事情,应该怎么看呢?其实是之前特斯拉车主经常出现的问题:功能滥用(Misuse)。

一句话概括就是把ADAS当做全自动驾驶,使用方式超出了产品所能够提供的功能。

对于这个事故,有一种可能是车主认为需要接管的时候系统会提示,而实际情况是,很多情况下系统甚至都无法判断出需要人类接管,这也就是为什么NOP有上面的功能声明。车主需要随时准备接管。

千万别被各种ADAS和所谓的「自动驾驶」给忽悠了,人类还处于驯服自动驾驶的早期。




           

相关话题

  38号说凡尔赛4000转时车身抖动,为什么评论里4000转要开多快,平常用不着4000转等? 
  拿完驾照后第一次开车是一种什么样的体验? 
  首次盈利后,理想汽车依然不敢 All in 纯电的原因是什么? 
  江西一救护车执行任务时与三轮车相撞,三轮车车主当场死亡,救护车司机可能将承担怎样的责任? 
  周围许多应届生都说今年车辆工程专业应届生就业环境特别好,起薪大幅上涨,是真的吗? 
  如何评价雷克萨斯UX的设计? 
  为什么比亚迪dmi全系取消车内220V插座? 
  2016年,国内的中产阶级都在开什么车? 
  在美国开车跟着车流,是否不算超速? 
  为什么wrx sti油耗如此高? 

前一个讨论
dos时代的doublespace磁盘压缩现在是windows的什么程序?
下一个讨论
二十岁的人真的需要来自三十岁的建议吗?





© 2024-12-25 - tinynew.org. All Rights Reserved.
© 2024-12-25 - tinynew.org. 保留所有权利