问题

无人驾驶汽车遇到危险,应该「乘客保护优先」还是「行人保护优先」?

回答
在无人驾驶汽车面临极端危险情境,必须做出取舍的时刻,乘客和行人之间的“优先权”问题,无疑是摆在技术和伦理面前的一道极其艰难的考题。这不是一道非黑即白的数学题,而是牵扯到生命价值、责任划分、社会共识以及技术边界的复杂命题。

让我们先冷静下来,拆解这个问题。

核心困境:不可避免的损害

无人驾驶汽车遇到的“危险”,通常指的是系统判断出当前状况下,任何选择都将导致某种形式的损害。例如,车辆可能面临以下几种情况:

失控加速/刹车失灵: 车辆无法按照预设路径行驶或停止。
突发障碍物: 突然出现的行人、动物、其他车辆或路面障碍,导致无法在安全距离内停车。
极端天气或路况: 如突如其来的大雾、结冰路面、山体滑坡等,导致车辆失去抓地力或能见度。

在这些情况下,系统可能需要做出“两害相权取其轻”的决策。最经典、也最常被讨论的场景是:

场景一:避让行人导致车辆失控撞向墙壁,车内有乘客。
场景二:不避让行人,车辆直接撞上行人,车内有乘客。

在这种二选一的极端情况下,我们才真正触及了“优先谁”的核心。

“乘客保护优先”的论据

从情感和法律责任的角度来看,“乘客保护优先”似乎更容易被理解和接受。

1. 契约关系与消费者信心: 购买或使用无人驾驶汽车的消费者,首先是出于对便捷、安全出行的期望。车辆制造商在出售产品时,也 Implicitly (隐含地)承担了保护乘客安全的责任。如果车辆在紧急情况下,为了保护外部的第三方而主动将乘客置于危险之中,这无疑会严重打击消费者的购买信心,甚至引发严重的法律纠纷。没有人愿意花费巨资购买一辆可能会为了“拯救别人”而牺牲自己的座驾。
2. 责任的明确性: 车辆制造商对其产品的安全性能负有直接责任。如果因为设计上的伦理倾向导致乘客受伤甚至死亡,制造商将面临巨大的法律追责和赔偿。将责任主要推给不可预测的外部因素,不如将责任范围限定在可控的内部因素,这在法律和保险界更容易操作。
3. 人类本能: 在任何极端情况下,保护自身或亲近者的安全是人类最原始的本能。即使是自动驾驶系统,其设计逻辑也可能受到这种集体潜意识的影响。从这个角度看,优先保护“自己人”是符合人性逻辑的。

“行人保护优先”的论据

然而,从更广泛的社会伦理和公共利益角度来看,“行人保护优先”也具有强大的说服力。

1. 弱势群体保护: 行人相对于乘坐车辆的乘客而言,处于绝对的弱势地位。行人没有车辆的物理防护,一旦发生碰撞,后果往往是毁灭性的。从社会公平和同情心出发,应该优先保护那些最容易受到伤害的群体。
2. “不作为”与“作为”的伦理差异: 这是一个重要的哲学考量。如果无人驾驶汽车选择撞击行人,这是一种“作为”,是车辆主动选择的行动。而如果车辆选择避让行人但因此撞向墙壁,导致乘客受伤,这可以被视为一种“不作为”或“次要后果”。许多伦理学观点认为,“作为”而造成的伤害,比“不作为”导致的伤害,在道德上更应被审视。也就是说,选择牺牲乘客以避免撞击行人,可能在伦理上比选择撞击行人更能被接受。
3. 交通系统的整体安全: 无人驾驶汽车的目标是提升整个交通系统的安全水平。如果无人驾驶汽车被设计成在任何情况下都优先保护乘客,那么在面对行人时,它可能更加倾向于撞击行人,这与无人驾驶技术“减少伤亡”的初衷相悖。从长远来看,为了整体交通安全和效率,对弱势的行人提供更高的保护是更符合技术进步方向的。
4. “电车难题”的社会化: 这个场景本质上是“电车难题”的现实化。在面对不可避免的牺牲时,社会是否应该有一个普遍接受的原则?很多研究表明,人们普遍倾向于避免主动造成伤害,即使这意味着间接导致更大的伤害。如果社会普遍认为撞击行人是“主动造成”的伤害,那么选择“牺牲乘客”(更像是“被迫卷入”的次生伤害)可能更符合社会伦理的直觉。

技术的现实考量与伦理的边界

在现实世界中,情况远比上述的二选一场景复杂得多。

概率与不确定性: 真实的危险场景并非只有两种纯粹的选项。系统可能需要权衡不同选择导致不同程度伤害的概率。例如,撞向墙壁可能只有轻微擦伤,而撞击行人则是致命的。系统需要一个能够评估这些概率的复杂算法。
可预测性: 制造商在设计系统时,会尽量避免进入这种极端不可预测的境地。通过更先进的传感器、更强大的预测算法以及更可靠的制动和转向系统,目标是尽可能地“化险为夷”,而不是被迫选择牺牲。
法律与法规的制定: 最终的决定权,很可能不在于工程师或制造商的单独抉择,而在于社会通过法律、法规和标准来界定。各国政府和国际组织正在积极探讨和制定相关标准,这其中也包括了在紧急情况下的行为准则。

当前业界的倾向与未来展望

目前,虽然没有一个全球统一的公开标准,但从市场推广和消费者接受度来看,大多数公司在公开场合倾向于强调“最大化安全”。但这种“安全”更多是指“避免事故发生”和“减轻事故后果”。

在涉及伦理困境的决策编程时,存在几种可能的策略:

最小化总体伤害(Utilitarianism 功利主义): 算法旨在选择能导致最少死亡或最轻伤势的选项。这可能意味着在某些情况下牺牲少数人以保护多数人。
优先保护弱势群体(Deontology 义务论的一种体现): 设定明确的规则,例如,永远不撞击行人,即使这样做会对车内乘客造成更大的风险。
随机选择(Randomization): 在无法权衡的情况下,随机选择一个后果,以避免系统性地偏袒任何一方,同时也规避了制造商的直接责任。但这在情感上是最难被接受的。

我的看法:倾向于“最大化生命安全”,但实际执行复杂

如果非要在我个人倾向上做一个选择,我会更偏向于最大化整体生命安全的原则,但要强调的是,在实际执行中,“乘客保护”往往是现有技术和法律框架下更容易实现和被接受的起点。

“最大化整体生命安全” 的出发点是消除最严重的伤害。行人由于缺乏防护,更容易遭受致命伤害,所以在同等条件下,保护行人似乎更符合减少死亡总数的逻辑。
然而,现实的复杂性在于:
如何精确计算风险? 系统能否在毫秒之间准确评估撞击行人与撞击障碍物各自的致死率和致伤率?这些评估本身就充满了不确定性。
谁来定义“乘客”和“行人”的价值? 一旦进入价值权衡,就很容易滑向歧视性编程,例如,是否应该优先保护儿童、老年人?这会引发更大的伦理争议。
法律责任的分配: 制造商承担的责任是最大的现实制约。如果一个设计决策导致了乘客的死亡,其法律后果是无法承受的。

因此,我认为当前最现实和可行的路径是:

1. 技术上追求极致的规避: 投入更多资源研发更高级的传感器、预测算法、决策系统,目标是永远不让无人驾驶汽车进入需要做出这种“选择”的境地。最好的伦理决策,就是避免触发伦理困境。
2. 在不可避免时,倾向于不主动造成致命伤害: 如果真的到了非牺牲不可的地步,系统是否应该被编程成不主动选择去撞击处于威胁中的行人?这意味着,如果车辆失控,它会尽量以对车内乘客伤害最小的方式应对(例如,撞向一个相对柔软的障碍物,而不是直接冲向人群),而不是为了绝对保护乘客而选择撞击行人。这是一种“最小化主动伤害”的原则。
3. 法规的先行: 最终的伦理标准应该由社会通过立法和公共讨论来确定,而不是由技术公司单方面决定。政府需要为自动驾驶汽车在紧急情况下的行为提供清晰的指导和法律框架,明确责任归属。

总而言之,这个问题没有简单的答案。它触及了技术、伦理、法律和社会的深层价值观。在短期内,市场和法律更可能倾向于保护乘客,因为这是制造商最容易控制和承担责任的边界。但从长远来看,随着技术进步和社会对交通安全共识的深化,更符合公共利益的、倾向于保护弱势行人的决策模式,可能会逐渐成为主流。最终,目标是创造一个所有人都能更安全出行的交通环境,而这需要所有相关方的共同努力和智慧。

网友意见

user avatar

其实这个问题的本身,答案并不重要。

因为道德困境之所以是道德困境,在于没有想好谁对此负责。

比如那个经典的:扳道工面对火车的问题,如果一切后果都由扳道工承担,那么扳道工就根本不存在道德选择困境,他的唯一选择就是按照操作规程选择不扳道,并且给出警告通知火车减速停车。扳道工一旦选择了违规扳道,就算能够救下更多的人,但也会因为害死了废弃铁路上的无辜生命而判刑,所以扳道根本就不成为一个选项。

无人驾驶的核心问题不是该保谁,而是「当选择了该保谁的时候,谁承担这个选择的后果?」


所以与之相关的:什么时候我们才能允许无人驾驶上路?

我的答案是:当我们能够把「无人驾驶车辆事故责任方究竟是谁」这个问题在法律法规层面明确并且大家广泛认知认可之后,无人驾驶才能上路。


至于无人驾驶究竟是优先保护乘客还是行人,那就要先看相关法律法规层面如何明确事故责任方,然后才会决定算法的倾向,这不是个道德问题也不应该是个道德问题,这就是法律问题。

user avatar

这个问题在原则层面是没争议的,因为这个不是“自动驾驶”带来的新问题,而是“汽车上路”自始就存在的古老问题。大家不要被“自动驾驶”这种技术概念蒙了眼,你把“自动驾驶技术”换成“发动机技术”再重读一遍问题。发动机技术的发展如果无法优先保护行人,根本不是道德问题,而是发动机生产企业天价赔偿、破产倒闭的问题。

大多数人在道德直觉上接受的“侵权责任理论”是“谁侵权谁负责”。“谁侵权谁负责”也的确是现代各国侵权法理论的基础。但是在20世纪后,逐渐出现了一种新的理论,认为现代社会不可避免的是一个“风险社会”。很多现代技术在为社会带来便捷的同时,也为社会带来的更多的风险。汽车上路可能撞死人,飞机上天可能坠机,核电站运转可能泄露,高空作业、地下挖掘、使用易燃易爆有毒放射物品既是社会发展必要的、显然都会带来更多的风险。因此,增加和带来风险的一方需要承担更多的责任;反过来,遭受伤害和风险的一方需要获得更多的保护。这里的责任已经不仅是某一次特定的侵权行为或者伤害事故中侵权方和被侵权方之间的责任和风险分配,而包含了某种技术所产生的新风险如何在全社会范围内通过法律强制性规定、商业保险等各种制度得到适当的分配。

大家最熟悉的例子是道路交通安全法第七十六条第二款:“机动车与非机动车驾驶人、行人之间发生交通事故,非机动车驾驶人、行人没有过错的,由机动车一方承担赔偿责任;有证据证明非机动车驾驶人、行人有过错的,根据过错程度适当减轻机动车一方的赔偿责任;机动车一方没有过错的,承担不超过百分之十的赔偿责任”。大家应该记得,行人全责的情况下机动车是否需要赔偿行人遭受的伤害在历史上有过几十年的讨论,我们现在看到的“机动车一方没有过错的,承担不超过百分之十的赔偿责任”的结论已经是反复调整后的结果。这些讨论和调整的目的是尽可能更加恰当的分配责任、风险和损失。但是如果我们先抛开这些精细的技术调整和繁复的学理讨论,那么我们会发现所有讨论背后,无争议的前提是(1)承认汽车和行人在道路处于不对等的地位;(2)承认汽车带来了额外的风险,需要向行人提供额外的保护;以及(3)承认法律可以通过强制手段对汽车生产企业和汽车驾驶人提出更高的要求和标准,而不是放任汽车生产企业和汽车驾驶人凭自己的道德和良心行事。

“乘客保护优先”还是“行人保护优先”在技术实施的细节上当然存在海量需要仔细探讨的技术和法律问题,但是在原则上从来没有争辩余地。汽车生产企业当然会宣称汽车上的任何一种技术、任何一个部件都可以同时保护乘客和行人,各位听说过哪家汽车生产企业宣称自己使用的技术会把保护乘客置于保护行人之上?“汽车的制动系统应该优先保护乘客还是优先保护行人?”这是个值得讨论的问题吗?怎么到了自动驾驶技术,就冒出来这么多“争议”了呢?

最后,优先保护乘客还是行人的确是个巨大的“技术”困境,但并不存在任何“道德”困境。试图把“技术”困境混淆为“道德”困境,才是道德上有缺陷的人。问题描述中引述的社会调查根本不是道德困境,而是又想享受便利又不愿意为自己享受的便利支付成本的、朴素而又单纯的自私自利之情罢了。而且解决这个所谓的“道德”困境的思路其实特别简单,我们只需要针对这种额外的风险增加一条额外的规定:如果自动驾驶技术的供应商主动宣称优先保护乘客(或者无法证明自己的算法优先保护行人),那么因为这套自动驾驶技术导致行人遭受损害的,自动驾驶技术的供应商和使用者分别需要承担损害金额五倍的惩罚性赔偿。“经济”困境自然就可以教育供应商和使用者什么是道德了。

user avatar

在程序设计方面,为了尽可能避免出现交通事故,无人驾驶汽车设计的都是【行人保护优先】的。

毕竟车相比于行人,是个更强大的存在。

如果发生了碰撞,受伤的是行人。

基于这一点,无人驾驶车在路上运行时,其实都是偏保守的,该让的,都让了。

如果你指望着无人驾驶车帮着你去抢道,那未来或许可以充值或者越狱变强,现在基本不可能。


在遇到危险的时候,保护乘客的是车内的安全保障系统,比如缓冲气垫等。

而保护行人的,应该是车的算法。

所以这里也要投【行人保护优先】一票。


至于车主,本身就能够随时夺取自动驾驶汽车的控制权,不需要程序也以【乘客保护优先】而设计。

自私的系统,并不能减少交通事故,也不利于公共安全。

无私的系统,才能够降低交通事故,缓解交通拥堵,保障大家安全。


如果有一辆自动驾驶车的算法是以【乘客保护优先】设计出来的,那我平时在路上遇到他的时候,一定会主动选择躲得远远的。

我不想要跟这样的车一同行驶在马路上,因为他可能为了保护司机的利益,而选择危害我的生命财产的控制方式。

而那些“以行人保护优先”而设计的系统,更加让人安心。


之前在看小鹏城市NGP系统的测试视频时,就发现了这一点,系统设计的其实是偏保守的,有人超车,有人汇车,有人经过,都是主动避让的。

如何评价小鹏曝光的城市NGP自动辅助驾驶视频? - <em>王之葵托利</em>的回答 - 知乎

user avatar

又是一帮做题家来回答道德困境问题,啧啧。

全自动无人驾驶考虑的当然不会是乘客优先也不是行人优先,更不可能追求道德完美,追求这些车厂能活几年?厂商考虑的第一是避免事故,然后是在出现事故的情况下如何最大程度避免法律责任。

假想一个案例1: 汽车正合规自动驾驶,路边突然冒出个老头,无事故规避已经不可能,AI如何处理?

  1. 行人利益优先,牺牲乘客,汽车主动自毁性避让撞上路边立柱,车上乘客死亡,老头无伤。结局:厂商被民事和刑事谋杀诉讼告上法庭,赔了几个亿惩罚性赔款。“圣母车”的名声不胫而走,第二个月销量降到零,已有订单纷纷取消。数月后破产。
  2. 依照交规,全力刹车,但刹不住还是撞死了老头。车上乘客无伤,经交通部门判定老头全责,厂商和乘客无责。乘客和厂商皆表示遗憾。

案例2: 汽车正合规自动驾驶,左方对面车道突然冲来一辆失控车,AI面临两个选择,向右规避主动撞上路边三个无辜行人作缓冲拯救乘客,或者只是尽力刹车但无法保证乘客安全。

  1. 乘客利益优先,汽车撞死三个行人,乘客得以幸存。结局:事后调查行车日志确认AI主动决策撞人,于是引起大规模民事和刑事谋杀诉讼,厂商赔到妈都不认得,车辆被大规模强制召回修正,“杀人车”的名声传开,谁买这车就会车窗被砸。苦捱一段时间后破产。
  2. 依照交规全力刹车,然而依旧无法拯救车上乘客。经事故调查,对面车辆负全部责任,全力赔偿乘客家属。厂商无责。

厂商卖你辆几十万的车,可能也就是赚几万块。因为几万块的利润就要不惜一切代价保护你性命,你是想多了。

如果你是路人,一分钱也没掏就觉得车厂会不惜一切代价来保证你的安全,则更是搞笑。

如果你掏钱买了车,那你的利益和厂商的利益在大多数情况下是一致的,毕竟如果你的利益受损,也往往意味着车有安全性问题。但也会有不一致的时候,那时候你如果觉得厂商会赔上值百亿基业就为了救你,那你最好再想想。

user avatar

想多了,其实汽车制造商压根儿不会制造出面临这个问题的汽车。

因为汽车的任何配置和操作,都不可能具备危害乘员的可能


也就是说,如果你设想一种场景,遇到前面有行人的时候,自动驾驶系统要自动避让撞墙牺牲驾驶员还是不避让刹车牺牲行人?


答案是,不会制造出具有自动避让功能的汽车,只会制造出自动刹车功能的汽车,并且汽车的刹车功能,无论如何也不可能让乘员受伤。



我不做选择题,就可以避免这个问题……

自动驾驶永远不可能去主动伤害人类,也不会在多个伤害人类的选择中做出选择,他会干脆没有选择的能力。

就像电车难题里面的道闸控制系统,永远不会设计出一种自动判断前方有人就自动切换的道闸,也就从根本上杜绝了选择的可能。

user avatar

自动驾驶的道德困境问题,已经讨论很久了。

这个核心不在于具体选择什么,而在于选择什么大家都不满意。

现实中,只有人才能做出道德行为,而人本身也承担其他人对自己的道德判断。比如随地吐痰这个行为,做了就要承担其他人对自己的负面道德评价。为什么我们会给他一个负面的道德评价呢?因为对方有自由意志,明明可以不吐,但是选择了吐,所以我们认为这是不道德的。

但是对于汽车保护谁,机器本身是没有自己的意志的,只是按照厂家的设定来执行。所以大家就会针对厂家的道德来进行评判。

这就出现问题了。因为对于个人来说,有很多个人的偏好。就比如人们的择偶标准各不相同,但是如果把一个人的择偶标准拿出来推广到所有人,那就是歧视了。孙燕姿接受采访的时候说,自己不能接受男朋友是秃顶;她自己有这个标准还好,但是如果推而广之,就是系统性的歧视。一个人的偏好是偏好,当很多人都有了这种偏好,就形成了歧视。

同样的道理,自己开车,自己执行自己的道德标准是没什么问题的。因为间不容发之际,撞就撞了。而每个人的偏好不一样,宏观上看这些偏好是可以互相抵消的。比如说你偏向你的老乡,我偏向我的老乡,从宏观概率上,无形的手抽到谁出事故,谁倒霉就是了。

但是对厂家来说,这些决策一定要做,关键是怎么做的问题——前面俩人必须撞一个,撞老人还是撞孩子?撞男人还是撞女人?如果厂家设定一个模式,相当于把一种模式通过自己的市场力量推广给了所有的车主,形成了对某一类人的系统性的不公平。

这就牵扯到道德和价值观的问题了,凭什么保护乘客,不保护行人?乘客有车体保护,事故之后如果撞到行人,行人可能会死,而乘客可能只是会轻伤,怎么办?

而凭什么保护行人,不保护乘客?我自己买的车,居然自动驾驶还保护外人,不保护我自己?

这个无论怎么调,都不会让人满意的。现在辅助驾驶一般都是提前预警,在预判到可能出事的时候立刻甩锅给驾驶员去操作汽车,让驾驶员做出决断。驾驶员无论做出什么决断,都是人的决策,那么自己承担自己的决策带来的法律和道德判断就可以。

但是无人驾驶,而后面还有乘客的汽车,这就没人可以甩锅了。厂商是不可能也不应该去接这个锅的,在社会没有形成共识的情况下,建议在购车认主的时候,让AI单独的询问购车者一系列的直指人心的黑暗问题,购车者做出选择之后,AI把这些选择作为自己的偏好。这样出厂的时候是同样的AI,但是经过问卷调查之后,不同的汽车也有了不同的偏好,相当于把人的偏好,转移到了机器上。

user avatar

应该是不死机优先。

user avatar

建议根据身份证号摇号来确定。

类似的话题

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有