其实这个问题的本身,答案并不重要。
因为道德困境之所以是道德困境,在于没有想好谁对此负责。
比如那个经典的:扳道工面对火车的问题,如果一切后果都由扳道工承担,那么扳道工就根本不存在道德选择困境,他的唯一选择就是按照操作规程选择不扳道,并且给出警告通知火车减速停车。扳道工一旦选择了违规扳道,就算能够救下更多的人,但也会因为害死了废弃铁路上的无辜生命而判刑,所以扳道根本就不成为一个选项。
无人驾驶的核心问题不是该保谁,而是「当选择了该保谁的时候,谁承担这个选择的后果?」
所以与之相关的:什么时候我们才能允许无人驾驶上路?
我的答案是:当我们能够把「无人驾驶车辆事故责任方究竟是谁」这个问题在法律法规层面明确并且大家广泛认知认可之后,无人驾驶才能上路。
至于无人驾驶究竟是优先保护乘客还是行人,那就要先看相关法律法规层面如何明确事故责任方,然后才会决定算法的倾向,这不是个道德问题也不应该是个道德问题,这就是法律问题。
这个问题在原则层面是没争议的,因为这个不是“自动驾驶”带来的新问题,而是“汽车上路”自始就存在的古老问题。大家不要被“自动驾驶”这种技术概念蒙了眼,你把“自动驾驶技术”换成“发动机技术”再重读一遍问题。发动机技术的发展如果无法优先保护行人,根本不是道德问题,而是发动机生产企业天价赔偿、破产倒闭的问题。
大多数人在道德直觉上接受的“侵权责任理论”是“谁侵权谁负责”。“谁侵权谁负责”也的确是现代各国侵权法理论的基础。但是在20世纪后,逐渐出现了一种新的理论,认为现代社会不可避免的是一个“风险社会”。很多现代技术在为社会带来便捷的同时,也为社会带来的更多的风险。汽车上路可能撞死人,飞机上天可能坠机,核电站运转可能泄露,高空作业、地下挖掘、使用易燃易爆有毒放射物品既是社会发展必要的、显然都会带来更多的风险。因此,增加和带来风险的一方需要承担更多的责任;反过来,遭受伤害和风险的一方需要获得更多的保护。这里的责任已经不仅是某一次特定的侵权行为或者伤害事故中侵权方和被侵权方之间的责任和风险分配,而包含了某种技术所产生的新风险如何在全社会范围内通过法律强制性规定、商业保险等各种制度得到适当的分配。
大家最熟悉的例子是道路交通安全法第七十六条第二款:“机动车与非机动车驾驶人、行人之间发生交通事故,非机动车驾驶人、行人没有过错的,由机动车一方承担赔偿责任;有证据证明非机动车驾驶人、行人有过错的,根据过错程度适当减轻机动车一方的赔偿责任;机动车一方没有过错的,承担不超过百分之十的赔偿责任”。大家应该记得,行人全责的情况下机动车是否需要赔偿行人遭受的伤害在历史上有过几十年的讨论,我们现在看到的“机动车一方没有过错的,承担不超过百分之十的赔偿责任”的结论已经是反复调整后的结果。这些讨论和调整的目的是尽可能更加恰当的分配责任、风险和损失。但是如果我们先抛开这些精细的技术调整和繁复的学理讨论,那么我们会发现所有讨论背后,无争议的前提是(1)承认汽车和行人在道路处于不对等的地位;(2)承认汽车带来了额外的风险,需要向行人提供额外的保护;以及(3)承认法律可以通过强制手段对汽车生产企业和汽车驾驶人提出更高的要求和标准,而不是放任汽车生产企业和汽车驾驶人凭自己的道德和良心行事。
“乘客保护优先”还是“行人保护优先”在技术实施的细节上当然存在海量需要仔细探讨的技术和法律问题,但是在原则上从来没有争辩余地。汽车生产企业当然会宣称汽车上的任何一种技术、任何一个部件都可以同时保护乘客和行人,各位听说过哪家汽车生产企业宣称自己使用的技术会把保护乘客置于保护行人之上?“汽车的制动系统应该优先保护乘客还是优先保护行人?”这是个值得讨论的问题吗?怎么到了自动驾驶技术,就冒出来这么多“争议”了呢?
最后,优先保护乘客还是行人的确是个巨大的“技术”困境,但并不存在任何“道德”困境。试图把“技术”困境混淆为“道德”困境,才是道德上有缺陷的人。问题描述中引述的社会调查根本不是道德困境,而是又想享受便利又不愿意为自己享受的便利支付成本的、朴素而又单纯的自私自利之情罢了。而且解决这个所谓的“道德”困境的思路其实特别简单,我们只需要针对这种额外的风险增加一条额外的规定:如果自动驾驶技术的供应商主动宣称优先保护乘客(或者无法证明自己的算法优先保护行人),那么因为这套自动驾驶技术导致行人遭受损害的,自动驾驶技术的供应商和使用者分别需要承担损害金额五倍的惩罚性赔偿。“经济”困境自然就可以教育供应商和使用者什么是道德了。
在程序设计方面,为了尽可能避免出现交通事故,无人驾驶汽车设计的都是【行人保护优先】的。
毕竟车相比于行人,是个更强大的存在。
如果发生了碰撞,受伤的是行人。
基于这一点,无人驾驶车在路上运行时,其实都是偏保守的,该让的,都让了。
如果你指望着无人驾驶车帮着你去抢道,那未来或许可以充值或者越狱变强,现在基本不可能。
在遇到危险的时候,保护乘客的是车内的安全保障系统,比如缓冲气垫等。
而保护行人的,应该是车的算法。
所以这里也要投【行人保护优先】一票。
至于车主,本身就能够随时夺取自动驾驶汽车的控制权,不需要程序也以【乘客保护优先】而设计。
自私的系统,并不能减少交通事故,也不利于公共安全。
无私的系统,才能够降低交通事故,缓解交通拥堵,保障大家安全。
如果有一辆自动驾驶车的算法是以【乘客保护优先】设计出来的,那我平时在路上遇到他的时候,一定会主动选择躲得远远的。
我不想要跟这样的车一同行驶在马路上,因为他可能为了保护司机的利益,而选择危害我的生命财产的控制方式。
而那些“以行人保护优先”而设计的系统,更加让人安心。
之前在看小鹏城市NGP系统的测试视频时,就发现了这一点,系统设计的其实是偏保守的,有人超车,有人汇车,有人经过,都是主动避让的。
如何评价小鹏曝光的城市NGP自动辅助驾驶视频? - <em>王之葵托利</em>的回答 - 知乎
又是一帮做题家来回答道德困境问题,啧啧。
全自动无人驾驶考虑的当然不会是乘客优先也不是行人优先,更不可能追求道德完美,追求这些车厂能活几年?厂商考虑的第一是避免事故,然后是在出现事故的情况下如何最大程度避免法律责任。
假想一个案例1: 汽车正合规自动驾驶,路边突然冒出个老头,无事故规避已经不可能,AI如何处理?
案例2: 汽车正合规自动驾驶,左方对面车道突然冲来一辆失控车,AI面临两个选择,向右规避主动撞上路边三个无辜行人作缓冲拯救乘客,或者只是尽力刹车但无法保证乘客安全。
厂商卖你辆几十万的车,可能也就是赚几万块。因为几万块的利润就要不惜一切代价保护你性命,你是想多了。
如果你是路人,一分钱也没掏就觉得车厂会不惜一切代价来保证你的安全,则更是搞笑。
如果你掏钱买了车,那你的利益和厂商的利益在大多数情况下是一致的,毕竟如果你的利益受损,也往往意味着车有安全性问题。但也会有不一致的时候,那时候你如果觉得厂商会赔上值百亿基业就为了救你,那你最好再想想。
想多了,其实汽车制造商压根儿不会制造出面临这个问题的汽车。
因为汽车的任何配置和操作,都不可能具备危害乘员的可能。
也就是说,如果你设想一种场景,遇到前面有行人的时候,自动驾驶系统要自动避让撞墙牺牲驾驶员还是不避让刹车牺牲行人?
答案是,不会制造出具有自动避让功能的汽车,只会制造出自动刹车功能的汽车,并且汽车的刹车功能,无论如何也不可能让乘员受伤。
我不做选择题,就可以避免这个问题……
自动驾驶永远不可能去主动伤害人类,也不会在多个伤害人类的选择中做出选择,他会干脆没有选择的能力。
就像电车难题里面的道闸控制系统,永远不会设计出一种自动判断前方有人就自动切换的道闸,也就从根本上杜绝了选择的可能。
自动驾驶的道德困境问题,已经讨论很久了。
这个核心不在于具体选择什么,而在于选择什么大家都不满意。
现实中,只有人才能做出道德行为,而人本身也承担其他人对自己的道德判断。比如随地吐痰这个行为,做了就要承担其他人对自己的负面道德评价。为什么我们会给他一个负面的道德评价呢?因为对方有自由意志,明明可以不吐,但是选择了吐,所以我们认为这是不道德的。
但是对于汽车保护谁,机器本身是没有自己的意志的,只是按照厂家的设定来执行。所以大家就会针对厂家的道德来进行评判。
这就出现问题了。因为对于个人来说,有很多个人的偏好。就比如人们的择偶标准各不相同,但是如果把一个人的择偶标准拿出来推广到所有人,那就是歧视了。孙燕姿接受采访的时候说,自己不能接受男朋友是秃顶;她自己有这个标准还好,但是如果推而广之,就是系统性的歧视。一个人的偏好是偏好,当很多人都有了这种偏好,就形成了歧视。
同样的道理,自己开车,自己执行自己的道德标准是没什么问题的。因为间不容发之际,撞就撞了。而每个人的偏好不一样,宏观上看这些偏好是可以互相抵消的。比如说你偏向你的老乡,我偏向我的老乡,从宏观概率上,无形的手抽到谁出事故,谁倒霉就是了。
但是对厂家来说,这些决策一定要做,关键是怎么做的问题——前面俩人必须撞一个,撞老人还是撞孩子?撞男人还是撞女人?如果厂家设定一个模式,相当于把一种模式通过自己的市场力量推广给了所有的车主,形成了对某一类人的系统性的不公平。
这就牵扯到道德和价值观的问题了,凭什么保护乘客,不保护行人?乘客有车体保护,事故之后如果撞到行人,行人可能会死,而乘客可能只是会轻伤,怎么办?
而凭什么保护行人,不保护乘客?我自己买的车,居然自动驾驶还保护外人,不保护我自己?
这个无论怎么调,都不会让人满意的。现在辅助驾驶一般都是提前预警,在预判到可能出事的时候立刻甩锅给驾驶员去操作汽车,让驾驶员做出决断。驾驶员无论做出什么决断,都是人的决策,那么自己承担自己的决策带来的法律和道德判断就可以。
但是无人驾驶,而后面还有乘客的汽车,这就没人可以甩锅了。厂商是不可能也不应该去接这个锅的,在社会没有形成共识的情况下,建议在购车认主的时候,让AI单独的询问购车者一系列的直指人心的黑暗问题,购车者做出选择之后,AI把这些选择作为自己的偏好。这样出厂的时候是同样的AI,但是经过问卷调查之后,不同的汽车也有了不同的偏好,相当于把人的偏好,转移到了机器上。
应该是不死机优先。
建议根据身份证号摇号来确定。
湍流的尺度远大于分子平均自由程,仍然满足连续介质假设。大部分人认为NS 方程可以描述湍流(事实上也是这么做的)。
NS 方程系统是确定的,但确定的不代表可预测的。一个典型的例子,洛仑兹方程组,形式非常简单。但是这样的动力系统对初值扰动极端敏感,初值的误差误差随着时间会使解完全不一样,也就是著名的蝴蝶效应。当雷诺数大的时候,NS 方程更是这样。
可以把湍流看作一个随机过程场。DNS是一次具体的实现,就跟做了一次实验一样。打个比方,就像把扔十次骰子看做一件事,你得到十个1,就可是看作一次DNS 。DNS的主要困难在于湍流的多尺度导致要完全解析所有尺度,网格必须很细,计算量太大。复杂算例根本没法用。 为了降低计算量,提出LES ,大尺度直接解析,小尺度建模或者用耗散代替。
注意DNS /LES 和RANS的区别。前者相当于做了一次实验,每次做结果都可能不同;后者RANS 得到的是每一时刻随机场的均值。