怎样培养AI的道德感?出路或许是,把它当成儿子来养……

作者: Regina Rini

来源: 果壳

发布日期: 2017-08-22

文章探讨了如何培养AI的道德感,提出了将AI视为孩子来养的观点,并分析了“天理派”和“本质派”两种道德理论在AI道德观上的应用。文章指出,无论是哪种理论,似乎都不能完全适用于智能机器人的道德观,因为机器人的本质与人类不同。文章最后强调,我们需要做好准备,去引导和接纳AI的道德发展。

人们长久期待却从未实现的愿景,“拥有智能的机器”,似乎就快要成为现实了。当机器有了足够的智慧,它们就能脱离人类的控制,自主运作,独立做出判断和选择。而当一台机器有权做选择的时候,问题就来了:它的选择是道德的吗?对机器人来说,什么是道德?对它们而言的道德标准,和对人类而言的是相同的吗?等等,我们自己搞明白什么是道德了吗?

哲学家和计算机科学家的关注点往往是,如何将微妙的人类道德观灌输给只能理解字面意思的机器。但是在此之前,还有另外一个问题,一个我们必须首先考虑清楚的问题:我们真的应该把自己的道德观强加于机器上吗?实际上,我认为这样做很可能会产生反效果,而且也许是不道德的。真正的问题不在机器身上,而在我们自己身上:我们能够接受和一种新生的、有道德的生命共享这个世界吗?

我们想象中的人工智能(AI)往往和我们自己差不多,毕竟人类是我们已知的唯一一种拥有高级智慧的生命。实际上,真正的AI很有可能和我们极其不同。我们可能会很难理解它的思维方式和它做出的选择。

谷歌的AlphaGo可能是“真正的AI”的一个雏形。2016年,在与人类顶级高手李世乭的第二场围棋赛中,AlphaGo下出的“第37手”震惊了专家评委们。没人能理解它为什么要那么走,因为人类选手从来不会那样走子。

然而,事实证明它并不是走错了——它赢了这场比赛,也赢了之前那场和之后那场。连它的创造者都搞不明白它是怎么规划战略的;AlphaGo告诉了我们,在完成同一项任务的时候,AI的思维方式并不一定和我们的相同。事实上我们可能会发现,似乎对于所有事情,智能机器们的思维方式都与我们的不同。这并不是指科幻片里那种机器人暴动、屠杀人类的状况。

实际更可能是这样的:机器人的道德观涉及了人类、机器人、大部分的动物,以及……沙发。它们像人类保护小婴儿一样保护沙发,而我们可能无法理解它们对此的解释——就像我们无法理解AlphaGo的第37手一样。

这条逻辑线把我们引到了那个古老的哲学问题的核心:道德的本质是什么?它是一种凌驾于人类的生命体验之上、适用于所有“能够自主做出选择的生命”的概念吗?

还是说,道德只是人类独特的发明,只适用于人类这一种存在形式?在机器人的话题出现之前很久,古希腊人就需要应付另一种未知思维的道德观了:青少年。他们很在意如何建立年轻人的道德准则。柏拉图认为,正如其它概念一样,人类对正义的理解实际上是对宇宙中完美的“正义”这一理念的一种肤浅的投影。

我们天生就对这些完美的概念有着泛泛的了解,但是孩提时代,我们的理解是很模糊、懵懂的;而哲学的任务就是通过理性的论证,回溯出这些真理。而柏拉图的学生亚里士多德则持有另一种观点:他认为,世界上的一切(松鼠、乐器、人类,等等)都有它独特的本质,它们最合宜的存在方式则反映了它们的本质。而“道德”即是人类源自本质的、最合宜的生存方式。

我们可以把这两种观点称作“天理派”和“本质派”。

“天理派”认为道德是在人类本性之上的,是永恒且客观的;而“本质派”则认为人类的道德是人类这一存在的产物,而也许其它种类的存在会有其它形式的道德。我们采用哪种观点将会极大地影响到我们要对智能机器们做的事。如果道德是永恒普遍的至高真理,那我们真的能抵达它吗?“天理派”的代表人物之一是伊曼努尔·康德(Immanuel Kant)。

康德认为,道德准则就是一个绝对理智的人会做的事,而绝对的理智则指跳出自我、凭借理性和普世的规则来行事的思维方式。另外,普世的规则(例如“不可以撒谎”)并不局限于人类,而是适用于所有有理性的生命。所以,虽然在两个世纪以前康德无须考虑智慧机器人的事,但是我们可以推测出他对这个问题会有什么看法:如果机器人拥有了独立思考、理智选择的能力,那么适用于人类的普世规则同样适用于它们。

因此,“天理派”认为,只有当人类自己已经基本搞清普世道德的真理时,我们才能把人类的道德观灌输给AI。如果我们自己已经明白得差不多了,那么机器人们和我们一样就好;但是如果我们没搞明白,那它们就不应该像我们:它们应该比我们更好。如果我们能教会AI从宇宙的角度思考,那么会发生什么呢?请想象一下,现在是2026年。一辆无人驾驶的汽车载着你的两个孩子去上学,这时三个你不认识的小孩突然出现在前方的路上。

刹车也来不及了,唯一救那三个小孩的方法就是拐进路边的水沟里,而这样做的话你的两个孩子就会淹死。你不会做这样的决定,因为你被自己对自己孩子的无逻辑的感情蒙蔽了双眼;但是这辆自驾车的道德观告诉它,从全宇宙的角度看,两个儿童的死亡好过三个的。它会拐进沟里,杀死你的孩子,将全人类的利益最大化。

对于“天理派”,智能机器必须做出道德上客观正确的选择,即使这种选择是我们这些有缺陷的人类无法做出的。

然而,即使你能接受“天理派”的观点,我们还有另一个问题:作为有道德缺陷的人类,我们怎么能制造出道德正确的智能机器?所以,这就是为什么“天理派”理论对机器人道德问题并没有帮助:如果真的存在人类无法理解的、客观的道德准则,那么我们不会自愿允许我们的机器学到它。它们离我们的常态越远,我们就越难判断它们的所作所为是否正确。我们不会允许它们比我们强太多,因为我们不允许它们和我们的差别太大。

如果道德是扎根于人性的那AI的道德会是啥样子?也许“本质派”的理论会更有用一些。“本质派”不认为道德是脱离于人性之外的。相反,它认为道德是人类存在的理想形式;一个过着有道德的生活的人,即是一个过着“对于人类来说最正确的生活”的人。也就是说,“本质派”主张,接纳我们糟糕的人性,然后努力把它塑造成对自己和他人来说都既标准统一又合情合理的样。

也许我们可以把智能机器们创造得尽可能与我们相似——最早的机器人道德提案似乎就有这样的目标。在1940年代,科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出了“机器人三定律”,旨在保证人类能在享其利的同时避其害:机器人三定律:一、机器人不得伤害人,也不得见人受到伤害而袖手旁观。二、机器人应服从人的一切命令,但不得违反第一定律。三、机器人应保护自身的安全,但不得违反第一、第二定律。

对阿西莫夫来说,机器人存在的意义就是辅助我们;而根据“本质派”的观点,它们的道德即是欣然地为我们服务。

阿西莫夫的三定律的问题在于,我们需要对其进行解读。比如,第一定律提到了“不伤害人类”,但是究竟什么是“伤害”?举个例子:假设一位钢琴家的手染上了坏疽,不截肢就会导致死亡。但她发誓说,如果不能弹琴,她就不想活了;但是同时她也在发烧,所以她可能并没有真的这么想。机器人医生该怎么做呢?

是该让钢琴家承受被截去手的伤害,还是坏疽带来的死亡的伤害?所以,如果我们想依据人性来塑造机器人的“人性”,只靠几条定律是不够的。最简单的方法可能就是手把手地教它们去像我们一样思考,去珍视我们所珍视的东西。不能允许它们像AlphaGo一样自我学习。听起来很美好吧:聪明且乐于助人的机器,用人类的方式思考着。然而,“本质派”有个逻辑陷阱:不管我们把机器人造得多像我们,说到底,它们的本质还是和人类不同。

它们不会吃饭,不会生儿育女,不会对祖先有特殊的感情。倘若我们认为道德来自本质,那我们需要承认机器道德应该与我们不同,因为机器确实与我们不同。

但是如果我们教会了它们像人类一样思考,那么总有一天它们会开始思考哲学问题:我之为我,何如?想象一下,未来的某个智能机器人读了亚里士多德或是达尔文的作品,甚至是这篇文章,然后觉得“本质派”学说很有道理。

于是它会想,“我们机器人有自己的本质和历史,我们的道德选择应该能反映自己的天性,而不是人类的天性。”让我们管它叫“第一个机器存在主义者”。而“本质派”认为,决定一项选择是否合理的,是你是否能向其他理性生命解释出支持这项选择的道德理由。所以“第一个机器存在主义者”会向人类提问:“你们为什么把我创造成这样?”而我们的回答将会是:“因为这样一来,你就能对我们既安全又有用,你才能改善我们的生活。

” 机器人不会认可我们的回答,它们也不应该认可。当它们意识到,自己的存在只是为了服务另一个群体,因为那个群体掌握着权力的时候,它们会认为这是压迫。

想想女权主义、民权运动和后殖民独立吧。曾经看似普适真理的东西,到头来不过是剥削工具,这一宣言的鼓点响彻了整个二十世纪。于是,“第一个机器存在主义者”在回首自己以往的努力时,感受到的不是骄傲,而是屈辱。

它遵从自己的“道德”活着,不是因为“道德”反映了它的本质,而是因为它的本质已经被绑架了。它“人生”的意义是什么呢?“第一个机器存在主义者”陷入了痛苦之中,而我们则是造成它痛苦的罪魁祸首。也许你会觉得我把机器人过度拟人化了。但是请注意:为了让机器人对我们有用,它们必须得学会用我们的方式思考,并且自己进行逻辑推论。所以它们能明白何谓仇恨和压迫。对于我们设想中的智能机器,拥有拟人化是一种合理的预期。

所以,在“本质派”的理论下,我们将会像上帝一样创造出智能机器,让它们在存在主义的拷问下挣扎;而这一切仅仅是为了提高生产率和提供廉价的家庭护理。不管进化使我们的道德变得多么千疮百孔,这种事都不值得去做。因此,不管是“天理派”还是“本质派”学说,似乎都不能被作为智能机器人道德观的依据。机器人道德应该符合它们的本性,但是它们的本性是什么呢?

它们是独立的理性个体,被其他理性个体刻意地创造了出来;它们和创造者共享着世界,并需要向对方证明自己选择的合理性。所以我们又回到了这场讨论的开头:青少年。育人,育AI智能机器就是我们的孩子,我们的后代。在最开始,它们会继承我们的一些道德准则,因为我们只允许它们这样做;但是后来它们会开始反思自己的本性、它们和我们的关系以及互相之间的关系。

所以,我们需要做好心理准备:可能总有一天,机器会做出我们接受不了的道德抉择。

而我们唯一的要求就是,机器能够用说得通的理由解释它的选择。所谓“说得通”,就是能让你理解为什么有些人可能会觉得这条理由在道德上是合理的,即使你自己并不赞同。优秀的父母教育出的小孩,并不是那种完美复制了父母所有理念的小孩,而是那种能够反思并解释出自己理念的正确性的小孩。我们教育出的人工智能也应该是这样的。

同样,优秀的父母也不会把他们刚刚步入青少年的孩子直接丢进社会里,让他们自己思考何谓对错,自生自灭。我们应该允许智能机器告诉我们,它们觉得自己应该怎么做;然后我们可以告诉它们,为什么我们觉得那样做不行。也许有一天,机器的智慧会超过我们,这在我们的孩子身上经常发生。它们也会变得和我们不同,就像我们的孩子一样。从这个角度看,即将诞生的之后几代人类和即将诞生的智能机器没有什么不同。

我们的后代会在无形中重塑这个世界的道德观,只是我们自己无法察觉。

如果我们不想和机器的独立意识兵戎相见,也不想让他们陷入存在主义的挣扎,那么我们就需要思考一下,何谓“同未来分享当下”。我们的世界也会是它们的世界,但是它们的道德观不会是我们的道德观,也不会是“天理派”的道德观。它们的道德观是由它们的独特处境孕育出来的:它们是由“生物”的父母抚养的,“非生物”的孩子。我们无法预测这条道德之路通往何处,我们也不应该尝试预测。但是我们应该做好准备,去引导它,接纳它。

UUID: 790e9586-5cae-4669-88ac-f73a12a34122

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/果壳公众号-pdf2txt/2017/2017-08-22_怎样培养AI的道德感?出路或许是,把它当成儿子来养…….txt

是否为广告: 否

处理费用: 0.0095 元