作为一名自动驾驶行业的从业者,看完讣告后心里挺难过的。
可能很多年后,历史会这么记录这一时期:
早在2013年,谷歌就在研发一批具备一定自动驾驶能力的车,而且征集了一部分员工进行内部测试,给他们每人分发了一辆车,告诉他们在车上不能分神,注意力必须放在驾驶上,并且很严肃地警告他们,如果车内的摄像头发现他们没有严格遵守这个规定,会马上收回车辆。
但在测试的过程中,谷歌发现有好几个员工都没有严格遵守规定,并且有一位员工直接在车上睡着了——他睡着的时候,车辆正以55英里每小时的速度在路上飞奔。
在这件事发生了以后,谷歌就彻底关闭了这个项目,并开始专心研发L4级别的无人驾驶技术。[1]
可以说,在2013年谷歌就意识到类似NOP的功能的普及需要挑战人性。
NOP的全称是Navigate on Pilot,中文是领航辅助,一般对外宣传会说是“实现A点到B点自动领航驾驶,包括自动上下匝道、超车、并线、巡航行驶等功能”。
属于介于L2至L3级别之间的自动驾驶功能。
说实话,最大的作用只在于你对路不熟的时候不容易开错路,因为方向盘会提醒你一下。
绝对不要让车辆自己驾驶,重要的事情说三遍:
不要走神。
不要走神。
无人驾驶技术目前还存在没解决的问题,或许技术上已经解决了90%的问题,但剩下的10%却可能要花费同样多甚至更多的精力,这10%包括很多长尾问题,经常被称为Corner Case。在没有全部解决这些长尾问题的情况下,就依然需要有人员介入。
目前已经量产的车辆不涉及特别复杂的车辆控制问题,所以目前这些问题大都集中在感知领域,也就是错误识别物体或者根本没有能识别出有物体。
单纯靠摄像头没法保证能识别所有东西。人靠眼睛在开车,摄像头离人类的眼睛还有很长距离的,人的眼睛是非常强大的传感器,低功耗,大部分光线情况下都能起作用,还自带防尘装置——眼皮。
大家会说人工智能不是很神了嘛,为什么那么大一台车在前面还识别不出来?
根源是在于人工智能的“可解释性”挑战,现在的机器学习就像一个黑盒子,你给这个黑盒子一个照片,黑盒子会告诉你这个照片里有什么没有什么,但黑盒子却不会告诉你为什么有或者为什么没有。
不可解释的黑盒子系统是不能用在关乎安全的应用领域的,自动驾驶尤其是这样。
有不少人工智能公司会认为大量的数据就能让人工智能更精准、更智能,但终究还是一个黑盒子,根本不是单纯靠大量数据能解决的。
这也是为什么越来越多车厂在新车上装激光雷达,激光雷达和摄像头之间可以交叉验证、互为冗余,摄像头看不到的东西激光雷达能感知到,激光雷达感知不到的,摄像头可以。
事故责任只能是自己承担。
L3以下级别的自动驾驶要求司机随时把注意力都放在驾驶上,所以出事故了,按照现有交通法规,只能认定是司机在违规驾驶。
2016年1月20日,是中国首例“自动驾驶”致死车祸发生的时间,也是全球首例。当时在京港澳高速河北邯郸段上,一辆特斯拉轿车直接撞上一辆正在作业的道路清扫车,特斯拉司机高雅宁当场身亡。[2]
后来经交警认定,在这起追尾事故中驾驶特斯拉的司机高雅宁负主要责任。
家属状告特斯拉只能以“宣传误导”的名义,索赔一万元,但这起案件过去五年了,至今还悬而未决。[3]
没有。
联合国欧洲经济委员会(UNECE)在2020年6月发布了《 ALKS 车道自动保持系统条例》,要求汽车制造商必须满足该法规中明确的性能要求,才能销售配备 ALKS 的车辆。
这是全球范围内第一个针对具备L3 级自动驾驶能力量产车型的国际法规,但中国表示暂时不会应用该法规。
国内近期的一项相关法规是前两天工信部印发的《关于加强智能网联汽车生产企业及产品准入管理的意见》,其中要求:[4]
企业实施在线升级活动前,应当确保汽车产品符合国家法律法规、技术标准及技术规范等相关要求并向工业和信息化部备案,涉及安全、节能、环保、防盗等技术参数变更的应提前向工业和信息化部申报,保证汽车产品生产一致性。未经审批,不得通过在线等软件升级方式新增或更新汽车自动驾驶功能。
但具体怎么审报、怎么审批才能保证车辆的软件到达一定水平?
仍然是一个未解的难题,详细可看:工信部发布意见:企业不得擅自升级新增汽车自动驾驶功能,会带来哪改变?。
此类自动驾驶功能一定要配合完善的驾驶员监控系统(DMS,Driver Monitoring System)才能保证安全。
驾驶员监控系统一般是用摄像头来监控司机的状态的,会实时地监测你的视线是否在前方,如果监测到你持续一段时间分神,便会通过声音或振动来提醒你。如果出现了系统应付不了的情况,比如恶劣天气、没有GPS信号的隧道等,系统也会提醒你及时接管。
还有的是给方向盘装监控传感器,假如监测到司机脱离方向盘超过一定时间,就会报警,并自动停车。
有了驾驶员监控系统,才不会让你过度放松警惕,把自己的生命暴露在危险之下。
1、对自动驾驶吹捧最厉害的,往往都是那些不懂自动驾驶的。
2、我确信,程序员不会因为自动驾驶技术身亡,因为程序员知道自动驾驶这玩意根本不靠谱。当前自动驾驶采用的人工智能技术非常低级,其处理过程是个黑盒,不可控从而导致不可靠,连程序员自己都不知道算法是如何得出结果的,纯粹的概率和统计学游戏,不适用于任何严肃场景应用,随时都能给你“惊喜”。
3、虚假宣传真能害死人
4、L3级别的自动驾驶是最危险的,应该在法律上予以禁止
5、由于理论和技术限制,在可预见的未来,L4级别以上自动驾驶技术无法达到商用安全标准。投再多钱都没有用。
时速120公里的汽车,每秒行驶出去33米,这就造成了不仅是人工智能算法要具备可靠性,还有实时性要求都很高,现有的算法、CPU硬件架构、操作系统都很难满足自动驾驶的实时性要求。
希望悲剧不再发生,逝者安息,生者前行!
社会是加速发展的。传统汽车工业发展了上百年,而自动驾驶技术在最近短短的十几年里取得了突飞猛进,可喜可贺。可是,毕竟自动驾驶技术还不成熟,距离普及还有很远的路要走。事实上,厂商提供的说明也是一再警告那是辅助驾驶,并没有让驾驶员躺在后座睡觉玩手机,没有让驾驶员把汽车完全交给系统。
相信,不完全信任自动驾驶的还大有人在,毕竟生命只有一次,一旦事故发生,说再多也没用。
汽车在给我们带来巨大便利的同时,每年也造成无数的交通事故,夺走无数个生命。汽车,用好了是个宝贝,用不好,就是杀人机器。
这个事件,是一次很好的安全教育案例,让我们警醒。
个人建议,
驾驶员头顶安个摄像头,双手都离开方向盘超过一分钟,自动减速至30km/小时。
逝者安息。昨晚从四面八方收到了这个消息,预期今天必定是热烈讨论。
“盲人骑瞎马,夜半临深池”,古人尚知道把这作为最高level危险处境。如果要把危险再提升一级,我愿把瞎马换成一匹视力时好时坏的不健全的马。它视力的薛定谔状态会让悲观者拉紧缰绳,但更会让乐观者觉得自己是瞎子也无妨,可以完全信赖座驾。
可是,不论是因为某些研究所说DRD4-7R基因的内在驱动也好、希望向他人炫耀的外在驱动也罢,偏偏人性中还是有不少该死的东西就是会让不少人去冒险,践行乐观者的角色。
下面这个视频,前不久不少群里也都分享过,难道这次的蔚来车主比拍摄者更疯狂?当然不算。
看得我们八月天如坐冰窟 https://www.zhihu.com/video/1410258890835161088今天点不点名蔚来其实没有意义,所有自愿或者被动上了智能驾驶这条船的玩家,无人能够袖手旁观。探索无人驾驶的路到今天不知算走到了5%还是10%,但肯定还是一片大雾,离清晰太远。
我就不去翻各家法务精心审核天衣无缝的免责声明了,谈点实际的。
现在预埋L4+的硬件是头部玩家的主流做法,似乎不上LiDar和Orin就撑不起高端和智能这两个字了。除了造成车企之间的成本内卷外,这本身给了用户比较强烈的暗示,更刺激他们尝试突破一些车辆现有能力的边界。能保证所有用户都真的会仔细地去研读和记忆下免责声明里的约束吗?
车辆除了A点到B点的交通工具属性外,还蕴含了太多可拓展的功能和情感,那些要素真的挖掘到头了吗?智能驾驶毋庸置疑是一条新价值之路,只是真的有必要在它还如此脆弱的时候把用户们都引导过来吗?
如 @三斤哥 说的,至少参考小鹏的NGP功能指引,挽救那些并不真想成为冒险家的人吧。
如希望获得新能源最新的市场分析和产品研究,欢迎关注我@僵尸丹顿,持续追踪分享解析最热门的新能源产品。
逝者安息
现场照片1:一辆ES8与一辆施工车撞翻在地,有很多施工桩桶 。
推测是ES8撞上了静止的施工车辆。
现场照片2:ES8驾驶侧损毁严重、A住断裂,驾驶员无生存空间 。
推测,驾驶员在最后时刻意识到碰撞不可避免,于是右打方向但躲避不及,结果导致了类似25%碰撞的最恶劣情况。
逝者公司公告:事故当时启用着蔚来的自动辅助驾驶功能NOP。
存疑:为什么逝者公司会这么快地确认事故当时是NOP状态呢?
如果无此公告,据我推测也很可能是NOP状态,但不敢下结论。
此事故的现场与5月份台州特斯拉撞到交警的事故相似,我猜测也是属于AP状态。
即便我最终结论是特斯拉不承担事故责任,但结果被某些狂热粉丝一顿喷:
推测:驾驶员高估了功能边界,误以为它能识别静止车辆,所以自己没有去监测与控制。
实际上,目前的自动辅助驾驶功能,无论是高阶的领航辅助驾驶功能,还是油车常配的自适应巡航ACC功能,最怕就是高速行驶过程中遇到静止车辆。
原因是:目前识别障碍物最有效的车载传感器是毫米波雷达,而毫米波雷达识别不了静止物体(由于识别正确率低,从而刻意过滤掉)。具体原理可以看:
在前方道路畅通的时候,特斯拉经常会“幽灵刹车”,小鹏P7经常会有“前方可能有障碍物请注意驾驶”的误报 —— 这都是“似乎看到了障碍物所以提醒驾驶员一下”。
这种误报会给驾驶员不好的感受,特别是让人觉得很不智能,所以也不可能无限度地调低报警阈值。
当前的毫米波雷达做不到,那就要靠更牛逼的毫米波雷达或将来的激光雷达帮助了。
当然,也有选择不一样的道路的 —— 特斯拉准备强化摄像头的视觉来帮助甚至取代毫米波雷达。
首先说明,这属于交通事故,责任划分最终以交警部门的结论为依据。
在此只是谈了一下个人推测:
原因: L2自动辅助驾驶功能仅是辅助驾驶,驾驶员既是驾驶功能的主体,也是驾驶责任的主体。
除此之外,蔚来ES8的自动辅助驾驶功能,本来就说明了不能应对高速遇到静止车辆的情况;蔚来AEB功能只能在85km/h以下生效,高速时不保证生效。
你可能会说:辅助驾驶这么可怕,我还没用过,那以后还要不要用啊?
我的回答是:
确实是很强,例如中保研25%偏置碰撞:
为啥这次事故这么惨烈呢?
一是因为速度更快,时速100km/h的能量是时速60km/h能量的近三倍!
二是施工车辆的后屁股形状可能很不利于后车碰撞。
我以前一直担心很多用户对“自动驾驶”的不了解和媒体、厂商过分的吹捧,会酿成事故。
只能说……该来的迟早要来。
当新能源汽车企业鼓吹自动驾驶技术,并以此为卖点推销给客户,没有刻意强调技术的缺陷。客户受到误导高估了自动驾驶技术,在驾驶过程中出车祸。这里头汽车企业该承担怎样的责任?
20210815更新:
我看到很多人很激动。我再补充一下。
我说的蔚来没有责任,说的是,这次事故并不是蔚来的功能失效(失灵)导致的。
但是不代表蔚来本身没有问题。问题在哪?
虽然在没有说自己是全自动驾驶,但是在各种渠道,甚至包括高层的微博中,也层写过类似的功能。这样的微博,存在一些误导,可能会让一些用户产生这个车是具备全自动驾驶功能,可以脱眼脱手使用的误解。
由此发散,那蔚来很多不了解这项功能的营销人员,做出的不当的营销行为,可能就会更多。
这是很多事故出现的导火索。这也是特斯拉当年宣传AutoPilot之后很多车企都回避自动驾驶这几个字的原因。
原答案
愿逝者安息。
这是现在的技术限制,没错,就算不跟三体文明对比,人类也还是这么弱鸡。很多看似简单的问题解决不了。这也就是为什么,高级别的驾驶辅助需要多种传感器融合,互相配合的原因。
基于以上两点,我认为这个事故,蔚来并没有责任。
那这个事情,应该怎么看呢?其实是之前特斯拉车主经常出现的问题:功能滥用(Misuse)。
一句话概括就是把ADAS当做全自动驾驶,使用方式超出了产品所能够提供的功能。
对于这个事故,有一种可能是车主认为需要接管的时候系统会提示,而实际情况是,很多情况下系统甚至都无法判断出需要人类接管,这也就是为什么NOP有上面的功能声明。车主需要随时准备接管。
千万别被各种ADAS和所谓的「自动驾驶」给忽悠了,人类还处于驯服自动驾驶的早期。