自动驾驶一直是个有争议的技术,汽车厂商和自动驾驶技术研发都宣传自动驾驶代表未来,自己的自动驾驶技术时时刻刻都在进步,也拿出很多很多实际测试的数据,证明自动驾驶是安全的,甚至安全系数比人类司机还要高。
这些宣传和测试的数据,我是相信的,这个不太会造假。
但是,这里有个问题,用测试数据证明自动驾驶的事故率低于人类是要有个前提假设的。
那就是要假设人类司机出事故是等概率的,就是说每个司机因为误操作出车祸的概率是一样的。
那么同样长的路程或者时间内,自动驾驶出车祸概率低,则对每个具体的司机来说自动驾驶比司机自己开车事故率更低,才是成立的。
但是,不同的人类司机的事故率是不相同的啊。一个驾驶技术好,遵守交通规则,从来不冲动,谨慎驾驶,他的事故率就是非常低的。不同司机的事故率基本就是个正态分布。
而自动驾驶由于每辆车上的软件算法和硬件设备是完全相同的,那么每辆车的事故率也就是一样的,是个平均分布。
这样的话,对于事故率本来就很低的司机,采用自动驾驶反而会增加他的事故率,只有对那些事故率较高的司机采用自动驾驶才会降低事故率。当然,从宏观统计上看,如果所有人都采用自动驾驶,那么宏观事故率还是会降低的。对于具体的司机来说,宏观统计事故率没有意义,自己的事故率才有意义。
目前自动驾驶技术仅是超越人类平均水平还是不够的,需要在安全可靠性上和人类里最优秀的那部分司机看齐才有意义,技术上还有很长的路要走。
因为个别事故就去否定一项技术或者一个企业也是没有必要的,对待每一次事故要能从中吸取经验和教训,帮助避免更多同类问题。比如 航空业,也是从一次次空难中吸取教训不断改进的。相信科技还是可以进步的,可以达到人们的期望,只是需要些时间。
忽然觉得特斯拉降价真高明,变成大众品牌后,那些权贵富豪和社会名流就不大愿意买它了,这样就算出了事故,社会影响也要小很多,如果这件事是驾驶特斯拉出的事,我觉得吐沫星子已经把上海工厂淹没了。
我是无法理解,在技术不成熟的时候,为什么会有人相信无人驾驶……
而且是托付生命级的相信……
大概,这些人都觉得,自己的生命并不是值得重视的东西吧
在十年内,百分百安全的自动驾驶都没希望。后面我会告诉大家原因
我第一次创业的合作伙伴,是个计算机天才。专门做图像算法相关研究的……博士的方向。本来在澳洲做,现在三十出头了去谷歌做,硬是从一个靠卖一个高频策略就能赚几百万的青年才俊变成了蓬头垢面,两眼空洞的卢瑟。
我们这个东西,估计是没出路的
这是他去年年底和我聊的中心思想。我来整理下目前自动驾驶存在的最大bug
1.图像模拟无法正确计算突然落到镜头前的物体
比如现在你过一个水坑,溅起来的泥水把镜头蒙住/经过的甲虫群(单只的已经可以轻松用多摄像头排除)/暴雨中的落叶。你说这车是不是下雨天或者泥沙地就无法开了?顿挫死你。
2.图像甚至雷达都无法正确计算障碍物重量
地上飘来一个塑料袋,可能有朝一日可以模拟出来直接开过去。如果高速时前车后面突然滚落一个空饮水桶或者侧面倒过来一个警示桩呢?此时如果刹车,反而会很危险。
3.道德选择无法由机器来做
他在的湾区对狗权还是很重视的。高速上窜出猫狗是非常常见的事情,为了行车安全,对于突然出现的动物,尤其是小动物,大部分车都是直接开过去(其实就算刹车也来不及,突然出现的行人也一样)。但他们的算法,即使辅助上雷达,都无法去设定“速度高于多少面对小于多少体积的物体不刹车”。
因为人权平等,人权高于动物权,但机器似乎不能凌驾于两者之上。
我一直不明白这个辅助驾驶是什么狗屁玩意,按理说,除非能做到人完全不管,否则根本不应该上线什么自动驾驶,需要人监管的伪自动驾驶就是典型的马路杀手。
因为人在没有操纵的情况下必然会注意力分散,根本无法有效规避突发风险。要么你就让人自己开,要么你就让人睡大觉,要求一个不开车的人监督车纯粹是违背生理的反人类设计。你技术做不到教人放心睡觉,又想靠半吊子技术圈钱,企图靠一个“告知你辅助驾驶的风险”就逃避责任,把锅全甩给消费者,那看都不用看,就是无耻之尤。
删评论是因为什么你不清楚吗?人大附中毕业的留学生,私信就这个素质。所以,拉黑,然后来私信骂我就是你的德行。刚看到,原来是在加拿大出生的香蕉人,怪不得一副趾高气昂看不起中国的样子,那就不难理解为什么出口成脏,拿无知当德行了。
偏见这东西,到底是因为天生的抵触,还是对未知的恐惧,亦或是无法言说的自卑造成的呢?
因为我是蔚来车主,因为我提了特斯拉的单踏板,所以我就替蔚来开脱。
不,我是替新能源汽车开脱。所有品牌的汽车都出现过事故,为什么新能源汽车一再上热搜?特斯拉、蔚来、理想、小鹏……
怎么没人考虑过为什么?为什么传统燃油车品牌不会天天上热搜?
作为蔚来车主,本不想发言,因为交通事故每天都在上演,这件事在短时间内被推上热搜两次,更觉得是有意为之。
我是没有买NIO pilot的蔚来车主,因为我觉得现在的A I算法还有局限性并没有想象中的智能,而且这个叫辅助驾驶,并不是自动驾驶。大家在享受科技带来的便利的时候,忘记了它本身的局限性,最终造成一些不可逆转的悲剧。
比如:我第一次试驾model Y,单踏板模式就非常友好。抬脚刹车,那感觉简直不要太爽。可我老公试驾后却说这样不安全,习惯了抬脚停车后,在遇到紧急情况的第一反应将不会是踩刹车,而是抬脚后看减速情况,然后再踩刹车可能就错过了最佳避险时机。我觉得他说的有一定道理,所以后来在开车时会把动能回收放到最小,尽量不让自己产生惰性。
而后来就接连出现了许多刹车问题。我不权威,也不专业,但还是觉得这和单踏板的驾驶习惯有一定关联。
为了不让悲剧重演,希望我们每个人在驾驶机动车时,不要过于依赖辅助系统,毕竟生命只有一次,请珍视、珍爱、珍重。
自动驾驶这个东西,是特斯拉带的坏头。
低级别自动驾驶,让用户当做高级别来用。
OTA升级,用户做BUG测试。
国内学特斯拉的企业,都这样来,这对用户和路人都很危险。
即使激光雷达普及以后,也不一定就绝对安全。
我是BMW X5车主,来评论蔚来本不合适,但事故起因于ADAS辅助驾驶系统,仅在此谈谈L2系统的选装和使用感受,提醒大家避免误用:
ADAS功能能用、好用的不多,很多是过度营销。要知道辅助驾驶功能的配件成本是十分敏感,比如当前25万以内车型的多数ADAS硬件还是采用单目摄像头+单颗或多颗毫米波雷达组成,从硬件配置上你就能体会出比较低端,当然这些与蔚来ES8和小鹏P7等中高车型无法相比。但即使是高端车型,在实用性成绩对比方面也受制于多种因素,比如系统的芯片能力和选型,有的来自供应商方案,如BOSCH, Mobieye等,有的是专精自研;于是同样是前视摄像头+毫米波雷达组合,因其类型、算法、算力、数量和安装位置的不同就决定了有效感知车辆的效率,因此很多高端车型在识别距离、角度、介入反应等指标对比上都各有差异;再就是使用场景:公路类型、路面质量、交通流量、光照天气,这些因素也决定着ADAS能否稳定高效运行。
ADAS功能从广义上讲:只要配置了ACC, LKA,AEB等几项辅助驾驶模块,它就算得上L2 ADAS系统;但倘若你想用这样的ADAS系统达到高度自动化的行驶表现就不现实了。原因是,比如ACC模块是车辆行驶时的纵向辅助,它让车辆自主的向前行驶,并感知其它社会车辆;LKA模块则是横向的驾驶辅助,让车辆保持在车道线里,但是LKA是基于车道偏离预警的,也就是LDW的基础上对异常转向进行辅助纠偏的一种功能,如果仅仅依托ACC/LKA这两个功能,那么在系统启动后,车辆就会重复在车道内压线、回正、再压线...再回正的动作,这种纠正动作会极大的降低驾乘体验并增加事故风险。那么要想让车辆在车道内顺畅自主行驶,就必须要具备车道居中保持的功能,也就是LCK或LCC模块(这是一套集成功能),它又包含了低速交通拥堵TGA和高速巡航辅助ICA,具备这一功能后,车辆就可以做到“全速域”保持在车道正中正常行驶了,同时在面对一些弯道或是曲率较大的急弯时,部分车型也可以自主通过(不需要人工介入)。也就是说这些模块和传感设备配齐以后,才算是一套基本合格的L2 ADAS;同时还要注意使用场景的限制,公路类型、路面质量、交通流量、光照天气,这些也决定着是否ADAS通过稳定高效运行。
所以倘若车主对ADAS确实有实际需求,经常长途自驾或中远途通勤,那么在选车和选装配置时一定要注意配置单上的差异功能项,了解软硬件限制,了解使用场景。有很多车的ADAS选装是有限制的,并不能做到 “全速域车道居中保持行驶” ,比如有些车型在车速60km/h左右时,其车道居中保持功能将会自动切换为单纯的ACC自适应巡航,进而当有大型车辆贴近时,也无法通过智慧躲闪功能向车道线另一端偏移来规避大车……
对于旨在使用ADAS功能的车主,都应该清楚理解全速域车道居中保持的要求和限制因素,如果厂家或是4S店没有特殊说明,那么是失职。例举宝马:BMW的ACC系统上车也有4-5年了,BMW在交车时都会有一个培训(可选),是由BMW官方教员主持的F2F形式课程(而非4S店),其中就会明确说明L2 ADAS系统的使用限制。近两年ADAS L2的价格逐步下探,像小鹏P7这样的高等级辅助驾驶功能在逐步下放,未来也许这些选购功能都会成为标配,但一定要做好车主教育和系统限制,避免事故发生。
蔚来的副总裁言传身教,双手脱把吃东西,还晒在微博上呢,结果是这老板追尾死了,副总裁还活的好好的。然后一帮蔚来的孝子贤孙还在给蔚来洗地,我靠什么不是自动驾驶是辅助驾驶,死去的老板自己不遵守驾驶手册云云,尼玛你们干爹公司的副总裁自己看不看手册?蔚来的高管公开自己违章开车的行为并且广而告之将违法行为作为本公司产品的卖点,这是一种什么行为?这是蔚来的公司文化吧?
我觉得死者家属可以拿着那位副总裁的微博去发起诉讼了,贵公司产品使用说明书跟贵公司高级干部的行为不一致,导致用户不知所从,这是其一,其二,按照蔚来吹的牛逼,不应该在高级辅助驾驶开启的前提下发生严重追尾事故,紧急自动制动功能都没有还聊个屁的辅助驾驶,或者说紧急制动功能没发挥作用那岂不等于没有?蔚来就是诈骗消费者,弄一个没有用的功能告诉消费者咱有这功能关键时刻能救你一命。
哎呦我去,解放你的双手,说好的不能离开方向盘呢?作为蔚来的消费者,你们到底有几只手啊?解放双手,双手不能脱把,这怎么看也得有四只手吧?
现在这个视频的标题已经改成这样了。别啊,一共才780人观看,我免费帮你们推广一下,真的,我一分钱都不敢拿你们的。要不上海蔚来告我诽谤吧?
回顾一下华为智能驾驶产品部部长苏菁(已被免职)之前关于智能驾驶的一番话:
“###(原文此处为某司)这几年下来,它的事故率还是挺高的,而且是从杀第一个人到最近杀的人,它的事故类型非常像。这个地方我用‘杀人’这个词,大家听起来可能是严重的”。
“但大家想一想,机器进入人类社会和人类共生的时候机器是一定会造成事故率的,讲难听点就是‘杀人’,只是说我们要把它的事故概率降到尽量低。从概率上来说,这就是一件有可能发生的事”。
“如果我们的自动驾驶变得更高级,普通用户对于新科技产品会有一个倾向性,一开始他们会完全不信任,一旦试过觉得很好后就会非常非常信任,这其实就是出事故的开始”。
“我相信高阶自动驾驶出现后,这个情况会变得更加严重,这会导致我们的系统设计要思考一个问题,无论我们怎么去界定法律责任,我们需要将机器本身的自动驾驶能力尽量接近L4,我们希望它能尽量处理所有场景。这是毫无疑问的,需要付出巨大努力所要做的事情”。
“在有限的几年,甚至是十年时间内,一定会碰到一些处理不了的极端场景。在这个阶段,我们一定是强烈,从技术手段要求用户去监管智能设备,而不会完全放权。这就是我说的,我们会技术上努力构建一个L4的系统,这点是毫无疑问的,但是在会商用上限定在L2.9的水平”。
“如果我们认为机器人时代会到来的话,技术上我们一定要尽最大努力无限接近自动驾驶。但是另一方面,我觉得我们每个人都有责任不要毁了这个行业。我们需要让这个行业在未来5-10年的危险期里,尽量平滑地过去,否则我们可能会是历史的罪人”。
…
感谢赞和评论。
虽然这番言论饱受非议,说这番话的人后也被免职,但我以为其讲的主要内容还是有些深刻和道理的,其被免职的真正原因就是触犯了包括特斯拉、华为等一众智能驾驶公司。
在不完善的市场或新出现的赛道,获取暴利是最容易的,这意味着可以最大限度的不顾及消费者的利益,或者说,当消费者利益受损时,很难得到救济。
好在很多行业内的良心之士能够自我约束,而且规则也在不断的完善,比如近日,工信部就发布了《关于加强智能网联汽车生产企业及产品准入管理的意见》,对很多方面进行了限制和规范。这是好的开始,也希望科技的不断发展能让各种悲剧尽量不再发生。
汽车驾驶有百年历史,但智能驾驶却是一个新事物,很多人愿意体验新事物,但体验者必须要认识到,智能驾驶和智能手机毕竟不同。
作为一名自动驾驶行业的从业者,看完讣告后心里挺难过的。
可能很多年后,历史会这么记录这一时期:
早在2013年,谷歌就在研发一批具备一定自动驾驶能力的车,而且征集了一部分员工进行内部测试,给他们每人分发了一辆车,告诉他们在车上不能分神,注意力必须放在驾驶上,并且很严肃地警告他们,如果车内的摄像头发现他们没有严格遵守这个规定,会马上收回车辆。
但在测试的过程中,谷歌发现有好几个员工都没有严格遵守规定,并且有一位员工直接在车上睡着了——他睡着的时候,车辆正以55英里每小时的速度在路上飞奔。
在这件事发生了以后,谷歌就彻底关闭了这个项目,并开始专心研发L4级别的无人驾驶技术。[1]
可以说,在2013年谷歌就意识到类似NOP的功能的普及需要挑战人性。
NOP的全称是Navigate on Pilot,中文是领航辅助,一般对外宣传会说是“实现A点到B点自动领航驾驶,包括自动上下匝道、超车、并线、巡航行驶等功能”。
属于介于L2至L3级别之间的自动驾驶功能。
说实话,最大的作用只在于你对路不熟的时候不容易开错路,因为方向盘会提醒你一下。
绝对不要让车辆自己驾驶,重要的事情说三遍:
不要走神。
不要走神。
无人驾驶技术目前还存在没解决的问题,或许技术上已经解决了90%的问题,但剩下的10%却可能要花费同样多甚至更多的精力,这10%包括很多长尾问题,经常被称为Corner Case。在没有全部解决这些长尾问题的情况下,就依然需要有人员介入。
目前已经量产的车辆不涉及特别复杂的车辆控制问题,所以目前这些问题大都集中在感知领域,也就是错误识别物体或者根本没有能识别出有物体。
单纯靠摄像头没法保证能识别所有东西。人靠眼睛在开车,摄像头离人类的眼睛还有很长距离的,人的眼睛是非常强大的传感器,低功耗,大部分光线情况下都能起作用,还自带防尘装置——眼皮。
大家会说人工智能不是很神了嘛,为什么那么大一台车在前面还识别不出来?
根源是在于人工智能的“可解释性”挑战,现在的机器学习就像一个黑盒子,你给这个黑盒子一个照片,黑盒子会告诉你这个照片里有什么没有什么,但黑盒子却不会告诉你为什么有或者为什么没有。
不可解释的黑盒子系统是不能用在关乎安全的应用领域的,自动驾驶尤其是这样。
有不少人工智能公司会认为大量的数据就能让人工智能更精准、更智能,但终究还是一个黑盒子,根本不是单纯靠大量数据能解决的。
这也是为什么越来越多车厂在新车上装激光雷达,激光雷达和摄像头之间可以交叉验证、互为冗余,摄像头看不到的东西激光雷达能感知到,激光雷达感知不到的,摄像头可以。
事故责任只能是自己承担。
L3以下级别的自动驾驶要求司机随时把注意力都放在驾驶上,所以出事故了,按照现有交通法规,只能认定是司机在违规驾驶。
2016年1月20日,是中国首例“自动驾驶”致死车祸发生的时间,也是全球首例。当时在京港澳高速河北邯郸段上,一辆特斯拉轿车直接撞上一辆正在作业的道路清扫车,特斯拉司机高雅宁当场身亡。[2]
后来经交警认定,在这起追尾事故中驾驶特斯拉的司机高雅宁负主要责任。
家属状告特斯拉只能以“宣传误导”的名义,索赔一万元,但这起案件过去五年了,至今还悬而未决。[3]
没有。
联合国欧洲经济委员会(UNECE)在2020年6月发布了《 ALKS 车道自动保持系统条例》,要求汽车制造商必须满足该法规中明确的性能要求,才能销售配备 ALKS 的车辆。
这是全球范围内第一个针对具备L3 级自动驾驶能力量产车型的国际法规,但中国表示暂时不会应用该法规。
国内近期的一项相关法规是前两天工信部印发的《关于加强智能网联汽车生产企业及产品准入管理的意见》,其中要求:[4]
企业实施在线升级活动前,应当确保汽车产品符合国家法律法规、技术标准及技术规范等相关要求并向工业和信息化部备案,涉及安全、节能、环保、防盗等技术参数变更的应提前向工业和信息化部申报,保证汽车产品生产一致性。未经审批,不得通过在线等软件升级方式新增或更新汽车自动驾驶功能。
但具体怎么审报、怎么审批才能保证车辆的软件到达一定水平?
仍然是一个未解的难题,详细可看:工信部发布意见:企业不得擅自升级新增汽车自动驾驶功能,会带来哪改变?。
此类自动驾驶功能一定要配合完善的驾驶员监控系统(DMS,Driver Monitoring System)才能保证安全。
驾驶员监控系统一般是用摄像头来监控司机的状态的,会实时地监测你的视线是否在前方,如果监测到你持续一段时间分神,便会通过声音或振动来提醒你。如果出现了系统应付不了的情况,比如恶劣天气、没有GPS信号的隧道等,系统也会提醒你及时接管。
还有的是给方向盘装监控传感器,假如监测到司机脱离方向盘超过一定时间,就会报警,并自动停车。
有了驾驶员监控系统,才不会让你过度放松警惕,把自己的生命暴露在危险之下。
1、对自动驾驶吹捧最厉害的,往往都是那些不懂自动驾驶的。
2、我确信,程序员不会因为自动驾驶技术身亡,因为程序员知道自动驾驶这玩意根本不靠谱。当前自动驾驶采用的人工智能技术非常低级,其处理过程是个黑盒,不可控从而导致不可靠,连程序员自己都不知道算法是如何得出结果的,纯粹的概率和统计学游戏,不适用于任何严肃场景应用,随时都能给你“惊喜”。
3、虚假宣传真能害死人
4、L3级别的自动驾驶是最危险的,应该在法律上予以禁止
5、由于理论和技术限制,在可预见的未来,L4级别以上自动驾驶技术无法达到商用安全标准。投再多钱都没有用。
时速120公里的汽车,每秒行驶出去33米,这就造成了不仅是人工智能算法要具备可靠性,还有实时性要求都很高,现有的算法、CPU硬件架构、操作系统都很难满足自动驾驶的实时性要求。
希望悲剧不再发生,逝者安息,生者前行!
社会是加速发展的。传统汽车工业发展了上百年,而自动驾驶技术在最近短短的十几年里取得了突飞猛进,可喜可贺。可是,毕竟自动驾驶技术还不成熟,距离普及还有很远的路要走。事实上,厂商提供的说明也是一再警告那是辅助驾驶,并没有让驾驶员躺在后座睡觉玩手机,没有让驾驶员把汽车完全交给系统。
相信,不完全信任自动驾驶的还大有人在,毕竟生命只有一次,一旦事故发生,说再多也没用。
汽车在给我们带来巨大便利的同时,每年也造成无数的交通事故,夺走无数个生命。汽车,用好了是个宝贝,用不好,就是杀人机器。
这个事件,是一次很好的安全教育案例,让我们警醒。
个人建议,
驾驶员头顶安个摄像头,双手都离开方向盘超过一分钟,自动减速至30km/小时。
逝者安息。昨晚从四面八方收到了这个消息,预期今天必定是热烈讨论。
“盲人骑瞎马,夜半临深池”,古人尚知道把这作为最高level危险处境。如果要把危险再提升一级,我愿把瞎马换成一匹视力时好时坏的不健全的马。它视力的薛定谔状态会让悲观者拉紧缰绳,但更会让乐观者觉得自己是瞎子也无妨,可以完全信赖座驾。
可是,不论是因为某些研究所说DRD4-7R基因的内在驱动也好、希望向他人炫耀的外在驱动也罢,偏偏人性中还是有不少该死的东西就是会让不少人去冒险,践行乐观者的角色。
下面这个视频,前不久不少群里也都分享过,难道这次的蔚来车主比拍摄者更疯狂?当然不算。
看得我们八月天如坐冰窟 https://www.zhihu.com/video/1410258890835161088今天点不点名蔚来其实没有意义,所有自愿或者被动上了智能驾驶这条船的玩家,无人能够袖手旁观。探索无人驾驶的路到今天不知算走到了5%还是10%,但肯定还是一片大雾,离清晰太远。
我就不去翻各家法务精心审核天衣无缝的免责声明了,谈点实际的。
现在预埋L4+的硬件是头部玩家的主流做法,似乎不上LiDar和Orin就撑不起高端和智能这两个字了。除了造成车企之间的成本内卷外,这本身给了用户比较强烈的暗示,更刺激他们尝试突破一些车辆现有能力的边界。能保证所有用户都真的会仔细地去研读和记忆下免责声明里的约束吗?
车辆除了A点到B点的交通工具属性外,还蕴含了太多可拓展的功能和情感,那些要素真的挖掘到头了吗?智能驾驶毋庸置疑是一条新价值之路,只是真的有必要在它还如此脆弱的时候把用户们都引导过来吗?
如 @三斤哥 说的,至少参考小鹏的NGP功能指引,挽救那些并不真想成为冒险家的人吧。
如希望获得新能源最新的市场分析和产品研究,欢迎关注我@僵尸丹顿,持续追踪分享解析最热门的新能源产品。
逝者安息
现场照片1:一辆ES8与一辆施工车撞翻在地,有很多施工桩桶 。
推测是ES8撞上了静止的施工车辆。
现场照片2:ES8驾驶侧损毁严重、A住断裂,驾驶员无生存空间 。
推测,驾驶员在最后时刻意识到碰撞不可避免,于是右打方向但躲避不及,结果导致了类似25%碰撞的最恶劣情况。
逝者公司公告:事故当时启用着蔚来的自动辅助驾驶功能NOP。
存疑:为什么逝者公司会这么快地确认事故当时是NOP状态呢?
如果无此公告,据我推测也很可能是NOP状态,但不敢下结论。
此事故的现场与5月份台州特斯拉撞到交警的事故相似,我猜测也是属于AP状态。
即便我最终结论是特斯拉不承担事故责任,但结果被某些狂热粉丝一顿喷:
推测:驾驶员高估了功能边界,误以为它能识别静止车辆,所以自己没有去监测与控制。
实际上,目前的自动辅助驾驶功能,无论是高阶的领航辅助驾驶功能,还是油车常配的自适应巡航ACC功能,最怕就是高速行驶过程中遇到静止车辆。
原因是:目前识别障碍物最有效的车载传感器是毫米波雷达,而毫米波雷达识别不了静止物体(由于识别正确率低,从而刻意过滤掉)。具体原理可以看:
在前方道路畅通的时候,特斯拉经常会“幽灵刹车”,小鹏P7经常会有“前方可能有障碍物请注意驾驶”的误报 —— 这都是“似乎看到了障碍物所以提醒驾驶员一下”。
这种误报会给驾驶员不好的感受,特别是让人觉得很不智能,所以也不可能无限度地调低报警阈值。
当前的毫米波雷达做不到,那就要靠更牛逼的毫米波雷达或将来的激光雷达帮助了。
当然,也有选择不一样的道路的 —— 特斯拉准备强化摄像头的视觉来帮助甚至取代毫米波雷达。
首先说明,这属于交通事故,责任划分最终以交警部门的结论为依据。
在此只是谈了一下个人推测:
原因: L2自动辅助驾驶功能仅是辅助驾驶,驾驶员既是驾驶功能的主体,也是驾驶责任的主体。
除此之外,蔚来ES8的自动辅助驾驶功能,本来就说明了不能应对高速遇到静止车辆的情况;蔚来AEB功能只能在85km/h以下生效,高速时不保证生效。
你可能会说:辅助驾驶这么可怕,我还没用过,那以后还要不要用啊?
我的回答是:
确实是很强,例如中保研25%偏置碰撞:
为啥这次事故这么惨烈呢?
一是因为速度更快,时速100km/h的能量是时速60km/h能量的近三倍!
二是施工车辆的后屁股形状可能很不利于后车碰撞。
我以前一直担心很多用户对“自动驾驶”的不了解和媒体、厂商过分的吹捧,会酿成事故。
只能说……该来的迟早要来。
当新能源汽车企业鼓吹自动驾驶技术,并以此为卖点推销给客户,没有刻意强调技术的缺陷。客户受到误导高估了自动驾驶技术,在驾驶过程中出车祸。这里头汽车企业该承担怎样的责任?
20210815更新:
我看到很多人很激动。我再补充一下。
我说的蔚来没有责任,说的是,这次事故并不是蔚来的功能失效(失灵)导致的。
但是不代表蔚来本身没有问题。问题在哪?
虽然在没有说自己是全自动驾驶,但是在各种渠道,甚至包括高层的微博中,也层写过类似的功能。这样的微博,存在一些误导,可能会让一些用户产生这个车是具备全自动驾驶功能,可以脱眼脱手使用的误解。
由此发散,那蔚来很多不了解这项功能的营销人员,做出的不当的营销行为,可能就会更多。
这是很多事故出现的导火索。这也是特斯拉当年宣传AutoPilot之后很多车企都回避自动驾驶这几个字的原因。
原答案
愿逝者安息。
这是现在的技术限制,没错,就算不跟三体文明对比,人类也还是这么弱鸡。很多看似简单的问题解决不了。这也就是为什么,高级别的驾驶辅助需要多种传感器融合,互相配合的原因。
基于以上两点,我认为这个事故,蔚来并没有责任。
那这个事情,应该怎么看呢?其实是之前特斯拉车主经常出现的问题:功能滥用(Misuse)。
一句话概括就是把ADAS当做全自动驾驶,使用方式超出了产品所能够提供的功能。
对于这个事故,有一种可能是车主认为需要接管的时候系统会提示,而实际情况是,很多情况下系统甚至都无法判断出需要人类接管,这也就是为什么NOP有上面的功能声明。车主需要随时准备接管。
千万别被各种ADAS和所谓的「自动驾驶」给忽悠了,人类还处于驯服自动驾驶的早期。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有