设立盲盒、修改轨道……这还是你印象中的“电车难题”吗?听到这里,一些网友的DNA应该多少动了两下。是的,这正是著名的“电车难题”。毫不夸张地说,几乎所有人都在不同的地方看过这个著名的伦理思想实验。它从数十年前就被人提出,至此拷问无数人的内心。每个人应该都在这个难题面前驻足过一段时间,然后在心里默默做出过属于自己的判断。但值得一提的是,有些人却没能从“电车难题”中走出来。
他们一直在润色、修改、恶搞这个著名实验,并已经得出了无穷多个版本……
电车难题最初起源于英国哲学家菲利帕·富特1967年的一篇论文。时至今日它已经过多次迭代、修改、完善化,直到变成今天我们看到的这个版本:一辆失控的列车在铁轨上行驶。在列车正行进的轨道上,有五个人被绑起来,无法动弹。列车将要碾压过他们。你能通过拉动拉杆来改变列车的走向,让其驶入另一条轨道上。但问题是另一条轨道上也绑着一个人。
而你会怎么做?严格意义上来说,这并不算一个真正的问题,而更倾向于一个道德困境,因为它没有一个真正正确的答案——没人能说出该怎样做才是真正正确的。
也是因此,这个问题一直以来被广泛地讨论。除去哲学与伦理学之外,心理学、认知科学等科目也均涉及了这一“电车难题”。它变成了为人熟知的,最著名的思想问题之一,并被应用于道德心理学的研究,成为书籍的主题……即使在网络上,它也永远是个能让人无数次争论的话题。
但事情稍微开始变得有点不一样。在2009年,哲学教授Jesse Prinz上传了一张自己创作的相关绘画。这张图可能大伙都见过无数次了,它几乎成了电车难题的代表图。随后在2013年,论坛4chan上的一位网友给这张图加了一点“二次创作”:他把轨道上的几个倒霉蛋p成了一些著名的哲学家。传说就这样开始了。
或许是因为有更具象的图片,人们的思考更容易被激发。
网友们开始逐渐热衷于用修改图片的方式,给电车难题加点料。起初人们只是给原本在表象上简单的电车难题增加一点附加条件,让整个情况变得更加复杂。例如,他们开始给轨道两边“加砝码”。尽管人们如今已经大多认同“生命无法、也不可能被比较”的道理,但他们真正想提问的,是“如果真的有这种情况,你会更倾向怎么做?”于是,网友们开始增添的附加条件也变得愈发多种多样。
什么也不做就撞一个人,拉下拉杆电车会有四分之一的可能撞五个人。当然也不乏一些更人性化的考验。但正如你所料,人类不会这么轻易放过自己。
实际上,电车难题对于普通人而言或许有个相较合适的解法,因为在法律层面来说,如果你扳动拉杆,拯救五个人,而令一个人死亡,或会因此造成法律纠纷。但人们要的并不是一个“相较合适的解法”。对于这种根本上两难的话题,人们更希望借此考验、观测自己的道德标准。
一部分人其实并不在意电车难题的现实意义,只想用类似的极端场景来拷问自己或他人。这也就有了之后一些稍显离奇的版本。不拉:一个人会死,但你不知道;拉:没人会死,但你以为自己杀了人。被人们放在两个轨道上衡量的,已经不再是有不同标签的生命,而是更复杂的选择。在这些新型电车难题中,你或许更容易做出选择,但也会因为其中的尴尬境地而头痛不已。有时又会让你开始思考更多……如果一定要有人为了种族而牺牲自己的家人……
值得一提的是,科幻伦理向的电车难题已经成为爱好者们的讨论热点。一些或许可能在数百年后才能被正式讨论的话题,如今已经借助电车难题被放在了台面上。例如克隆伦理:涉及时间穿越的问题:其实从这些电车难题的风格走向也能看出来一个事实:有的人可能已经给整魔障了。如果一个人太沉浸于一些没有答案的问题,那摆在他面前的只有两个选择:哲学家,或是魔障人。
我不知道有没有人因为电车难题而成为前者,但走上后者之路的,确实有不少。因为现在还在沉迷电车难题的人,做出的升级版已经变成这样了:如今人们对此的讨论,已经跳脱出原有的电车问题:尽管事情还是发生在那个轨道上,但味儿早就不一样了:所提问的重点也开始不再聚焦于道德:而是……你也看不懂他想要的什么:手握拉杆的小人,如今再也不复当年那般单纯。以至于有的人,看起来是已经不想再认真讨论了。
随着关于电车难题的讨论进入白热化,一个趋势开始变得很明显。大伙可能只是想看小电车撞人——或是别的什么……随着讨论的加剧,人们开始愈发对电车难题着迷。制作相关的周边已经是初级。现在早已有了以电车难题为主题的游戏。或是已经有节目开始让路人亲身经历一次“拉与不拉”的抉择(当然只是模拟):一些家长也非常乐于拷问自己的小孩,遇到这种情形应该怎么做。全给爷死!一些深陷“电车泥潭”的人。
已经无数次幻想自己手握那根决定命运的拉杆。他们不愿放下屠刀。只想让冷酷的电车碾压过一切道德准则。站在那两个轨道的交叉口,是一部分人无法放下的梦境。按目前的趋势,人们可能永远无法放下对电车难题的着迷。这并不难理解,因为道德拷问永远能激发人类的思考欲望。我们会一遍遍用不同的情景为预设,质疑自己“会怎么做?”,而这是探究自我的最好途径之一。
不过事实上,随着人工智能的发展,或许我们有一天也不得不去正视“电车难题”:2016年,麻省理工学院上线了一个名为“道德机器”(Moral Machine)的在线实验平台,旨在探索自动驾驶汽车面临的道德困境。在该平台上,人们需要决定自动驾驶下的汽车在危急关头更应该“牺牲”哪些人。当然,这目前只是个实验。但在人工智能的发展下,自动机器(如智能电动车)将无可避免地会面临这类取舍问题。
这或许是很多年后才会被摆在台面上的问题。而此时此刻的我们,或许对这种困境只有一种期望——而我,只不过是恰好拎着马桶搋子路过而已。