重读电车难题:当无人车不得不杀人 谁决定谁生死

重读电车难题:当无人车不得不杀人 谁决定谁生死

本文系网易智能工作室(公众号 smartman 163)出品。聚焦AI,读懂下一个大时代!

【网易智能讯 9月24日消息】最近,“电车难题”这个一个广为人知的道德伦理思想实验,重新出现在人们的视野中。当未来由汽车来决定我们的生死时,这个难题将成为噩梦般的存在。然而,在许多研究自动驾驶汽车的专家眼中,关于电车难题的讨论是过于偏激的。他们认为电车难题是哗众取宠,而且也无关紧要的。但这种态度是不对的。由于自动驾驶汽车的出现,电车难题将得到解决。更重要的是,关于这个难题的答案还将深刻地重塑美国的法律。

要想理解电车难题,首先要考虑这样的情况:你现在正站在一座天桥上。在你的脚下,一条铁轨被分成一条主干道和另一条路线。在主干道上,有50人被绑在铁轨上。在主干道上,一辆电车从桥下疾驰而过,向被困住的人们冲来。幸运的是,天桥上有一个杠杆,当它被拉动的时候,电车能够改道到另一条路。但不幸的是,另一条路也有人被绑在轨道上,不过只有一个人被绑,而不是50人。在这种情况下,你会选择拉杠杆吗?

现在,再重新考虑一下这个情况:你站在桥上,有50人被绑在铁轨上,然而这一次只有一条轨道。你旁边有一个很胖的人,他正斜靠在栏杆上。一个可怕的想法浮现在你的脑海里――你可以轻易地把那个人推到轨道上。当电车撞到他的时候,它就会停下来,这样就可以拯救50人的生命。你会去推那个男人吗?

这个问题没有所谓的对或错的答案。但值得注意的是,很多人都说,他们会选择拉杠杆,但是却不敢伸手推那个男人。识别一种对于大多数人来说都是可以接受的道德准则(也就是说,在所有情境下人们都不会反对它)同时还要在遇到反对意见时为它辩护,这是很困难的。比如,如果你的指导原则是尽量减少人员伤亡,那么推倒那个男人和反对拉杠杆之间并没有什么区别。但我们都得承认,推倒那个男人的感觉是不一样的,看起来就像是谋杀。电车难题凸显了一种令人不安的可能性:我们的道德直觉一方面是由公认的原则支配的,但同时,也受到一些随意的、肤浅的因素的支配。

重读电车难题:当无人车不得不杀人 谁决定谁生死

不难看出,公路情景与这存在着相似之处,比如,为了避免撞车而调转方向盘,这就意味着要撞上咖啡馆的顾客。但许多专家指出,电车难题的情况已经很少见了。自动驾驶技术承诺比任何人工操作都更安全,只会让电车难题变得更稀有。他们声称,仅仅因为这点恐惧就去阻碍一项可能会带来无数好处的技术的传播,是非常不可理喻的。

这种反应是有道理的,但它对汽车安全的狭隘关注忽视了一个更广泛的问题:电车难题遍及美国法学。民事陪审团最常扮演的角色是确定被告的行为是否合理,即在将成本和风险从一方转移到另一方时的行动是否合理。为了做出这些裁决,陪审团通常会被要求采用一种粗略的数学公式,即所谓的Hand?rule(用20世纪早期的一位法官Learned?Hand的名字命名)平衡那些受到被告行为影响的人的利益,这是电车难题场景的精髓。当然,你不需要成为一名律师就能找出不一致的地方:如果我们只需将数值插入方程中就能找到正确的答案,那么我们为什么还需要陪审团呢?

事实是,“Hand rule"在大多数情况下都能提供一个可以接受的答案,但有时却会出现两难的处境。它提出的答案可能会失败,因为我们的道德直觉并不总是满足于遵循更高尚的原则。当这种情况发生时,法律体系依赖于陪审团在这个等式中找到一些回旋的余地,并做出一个与公众对于公平的认知相一致的裁决。

然而,在自动驾驶汽车情况下并没有回旋余地。和任何计算机一样,在没有得到指令时,自动驾驶汽车不会有任何行动。程序员无法为它提供应用于大多数场景的指令,而避免考虑特殊情况。同时,自动驾驶汽车必须在不到一秒的时间内做出决定。没有时间让一个外部的、人类的“道路陪审团”对它所处的情景进行审查。因此,它只能靠自己。必须有人提出(或者,至少在算法提出的时候接受)一个明确的、不含糊的规则,用于什么时候拉杠杆、推人、或者转向咖啡厅。社会必须严肃对待电车难题,不是说自动驾驶汽车在该问题得到解决之前就不应该投入使用,而是因为自动驾驶汽车将会促使一个人们达成一个解决方案,这个解决方案所体现的价值观很可能会在包括法律在内的许多重要的公民领域中得到采纳。

但是,我们能指望谁来审慎地解决这个电车难题呢?有些学者认为,律师将负责解决。这种观念的问题在于,律师在职业生涯的大部分时间里都在逃避为难题提供明确的答案。律师甚至还发明了一种格言,让他们的逃避行为显得负有责任:“困难的案例促成糟糕的法律。”事实上,“律师会拯救我们”的观点有反向因果的作用:法律不会影响到电车问题;相反,电车问题及其解决方案将会影响到法律,例如,它会影响到法律如何指导陪审团去判断一个人的行为是否合理。

重读电车难题:当无人车不得不杀人 谁决定谁生死

人们总是很希望有人来解决电车问题。毕竟,要找到一个解决方案,通常就需要面对一些关于个人道德情感的令人不安的真相。例如,如果自动驾驶汽车遵循一条简单的规则:减少伤亡人数。那么这条规定偶尔会导致令人不快的结果。比如,为了避免撞到四个不遵守交通规则跑到马路上的成年人而撞倒了走在人行道上的母亲和她的两个孩子。因此,这项规定可能会附加一个限制性条款:将伤亡人数降到最低,除非有一方处于危险之中。

但是,如果面对的对象是四名横穿马路的男性和三名横穿马路的母亲,或者四名横穿马路的母亲,或者仅仅是四名横穿马路的女性,那该怎么办呢?理性的人可能并不认为在这些情境下存在所谓“可接受”的决策,他们会努力做出合理的选择。艰难的案件不会促成糟糕的法律,但会促成糟糕的法学家,他们害怕承认自己的推理通常是由自私、个人情感或社会压力驱动的。

重读电车难题:当无人车不得不杀人 谁决定谁生死

尽管存在这些挑战,社会还是应该抵制外包其道德编纂。如果电车问题的答案是反映(或者至少是被告知)社会中丰富多样的经验、态度和观点,那么每个人都参与到这个过程中是至关重要的。专家们可能会说,电车问题没什么好担心的,但他们忘记了,汽车首先是交通工具。即使你完全不关心你乘坐自动驾驶汽车时它是如何运作的,你也应该关注当你离开它们的时候会发生什么。他们正在推动社会走向法律和政治改革,而这些改革不应被忽视。

(选自:wired 作者:JAY DONDE 编译:网易见外智能编译平台 审校:Jayne)

关注网易智能公众号(smartman163),获取人工智能行业最新报告。

随意打赏

提交建议
微信扫一扫,分享给好友吧。