机器人会梦见电子羊吗?这个问题引发了人们对AI的“人性”和“灵性”的探讨。机器是否能够思考?如何看待机器的“人性”和“灵性”?如何看待机器的道德地位?这些问题是不是也让你感到困惑?最近,《知识分子》和北京大学哲学系的刘哲博士,复旦大学哲学系的徐英瑾博士和王球博士,以及上海交通大学哲学系的蔡文菁博士聊了聊AI的“人性”和“灵性”。
如何判断机器是否能够思考?“图灵测试”是一个广为人知的方案。这个方案由图灵在1950年提出,用来判断机器能否思考。被测机器和真人一起,通过语言的方式(例如通过打字)和人类“考官”自由交流,如果考官无法分辨出被测对象是机器还是真人,则机器就通过了图灵测试。迄今为止,还没有机器能通过不限制谈话领域的图灵测试。然而,如果不把图灵测试限制于自由交谈,机器的复杂行为则已经能“骗过”人类。
基于一张图片,小冰就能“触景生情”地写出一首朦胧的中文现代诗。可以说,微软小冰在“写现代诗”这个领域,已经表现出了和人类相近的能力。在大众的直觉里,诗歌写作这个领域和方程组求解不同,更能展现某种独属于人类的情感和创造力。在小冰的真实身份没有披露之前,读者不会怀疑这些诗句是一个多情的人儿所写。可以想像,敏感的读者甚至会对诗人动情。
小冰不是孤例。近年来,AI系统已经越来愈多的领域表现得“富有人性”。2017年1月,谷歌DeepMind开发的人工智能程序AlphaGo化名Master重出江湖,并在各大围棋论坛上与中日韩顶尖选手过招,斩获60场不败的战绩。其手下败将包括“棋圣”聂卫平,日韩顶尖棋手井山裕太,朴廷桓,以及曾经高调宣称一定能下赢AlphaGo的世界排名第一的中国棋手柯洁。
对于和AlphaGo对弈过的棋手来说,AlphaGo更像是一位“得道高僧”,而非算法和程序。“棋风”、“大局观”,都是用来形容人类棋手的词语。当这些概念被用来形容一个围棋程序,到底意味着什么?一个程序,又如何懂得“围棋真理”?但我们可以看到,无论是否知道微软小冰和AlphaGo背后是程序,是否理解它们背后的算法原理,人们都从这些AI的表现中感受到了某种“人性”,甚至是“灵性”。
事实上,大众以拟人化的方式理解AI应用的现实,已经被一些哲学家视作伦理上的新挑战。在由北京大学哲学系副主任刘哲教授主导编撰的《中国机器人伦理标准化前瞻(2019)》中,“去人类中心主义”立场被放在了核心位置。其中的重要考量,即是因为当下的许多AI应用已经超越了普通的工具和机器,而越来越被人类当作“伙伴”,获得了人类丰富的情感联结,也越来越容易被当成道德主体去考量。
我们应该如何看待AI呈现出的这种“人性”和“灵性”?当前的AI真的具备一些“人性”吗?如果从当前基于机器学习原理和大数据训练AI技术应用来看,答案是否定的。在复旦大学哲学系从事多年人工智能哲学研究的徐英瑾教授看来,人类智能的关键是领域切换的能力。AlphaGo的下棋能力超越了所有的人类,却仍然无法评价自己刚刚下完的一盘棋——而这是最差的棋手也能做到的事情。
为何人类会感叹机器有“灵性”?
但这些是对当前AI实现原理的解释,并不能解释人们为什么会认为AlphaGo有某种“棋风”和“大局观”。如果我们把考察的范围扩大一些就会发现,人类本来就有一种将无意识的事物,看作有意识,或者拔高对方的意识水平的倾向,即所谓“泛灵论”倾向。这在世界各个文化的历史早期都普遍存在。在古人看来,打雷,刮风,是因为某个神灵发怒了。世间万物,尤其是那些自己会运动的事物,都是会思考,有意图地存在。
AI仅仅是“看上去”有人性,就不会带来现实的社会影响吗?上文中,我们总体上理解了为何人类会认为“当前AI系统具有‘人性’,而不是普通的工具和机器”的想法。但这并不意味着,AI仅仅是“看上去”有人性,就不会带来任何的社会影响。
刘哲表示,人们现在已经会对虐待“机器宠物”的行为表现出类似虐待真正猫狗的愤慨,例如网上确有“讨伐”波士顿动力(Boston Dynamics)测试人员“虐待”他们开发的“机器狗”的言论。
更现实的问题不是AI权利保护,而是保护人类不被AI欺骗。我们强调目前的AI技术让我们“直观”到AI的人性,并非真的为了保护AI,而更多是为了保护人类自身。除了上文提到的,虐待机器人可能会损害人类自己的道德品质,更大的问题是过分拟人的、被大公司作为商品创造出来的机器人,可能会对我们造成更加实际的伤害和控制。
未来的AI,会拥有完整的“人性”吗?虽然当前的AI技术所构造的“人性”,本质上更多是一种“魔术”或“当局者迷”,称之为“拟人感”或许比“人性”更加准确。但未来,随着科技发展,几十年甚至几百年后,AI是否可能拥有“真正的人性”?更进一步,从心理和文化层面来说:如果AI归根结底是由人类所造,而非如其他生命一样“自然”生成,是否就永远会被人类视作“二等公民”?
人造之物,如何成为人?
这些问题可以说是许多关于AI,机器人和克隆人的科幻作品的“母题”。在雷德利·斯科特的《银翼杀手》中,人类创造的复制人在太空殖民地经历了史诗般的战斗,勇气与德性可能远超过人类,却不断被人类猎杀,只能“消逝在时间里,就像雨中的泪水”。在斯皮尔伯格的《人工智能》中,机器人小男孩大卫,被“养父母”抛弃后,不断寻找“蓝仙子”,以便成为真正的人类小孩,回到父母的怀抱。
在美剧《西部世界》中,供人类取乐的AI机器人们,在一次次“虐待”中觉醒,开始反抗人类主人,反叛自己的“奴隶身份”。
显然,重点不在于探讨这些科幻作品中的AI的技术可能性,而是考察科幻文化所反映的人类文化潜意识。清华大学科学史系教授吴国盛在其《技术哲学讲演录》中指出,人工智能的英文Artificial Intelligence(AI)中,“artificial”又有“虚假”之意。
“这似乎反映出人类对自己的创造物的某种不自信”,吴国盛写道。是否因为AI是人类创造的,人类就不会认可AI具有完整的人性,无论它们表现得多么拟人?
这牵扯到我们说的“造”是什么意思。在人类的自然生育中,受精,胚胎发育和新生儿的成长,是一个母亲无法也不需要理解的过程,但我们似乎能理解AI制造过程的每个细节。这种高分辨率的理解,似乎妨碍了我们将AI看做与我们同级别的智能。
不过,在徐英瑾看来,“未来真正智能的人工智能就不可控程度而言,会远远的超过现在的深度学习……未来的机器人是被设想成能够跟着环境的互动,在无监督的情况下进行自主学习。它处于怎样的环境,也是不能够完全控制的,所以它将会形成怎样的‘机器人人格’,你也只能进行非常粗线条的控制,类似于父母对于孩子的性格,只有极为粗线条控制力”。如果控制过多,就会失去灵活性。“既要马儿跑,又要马儿不吃草,是不可能的。”
进一步,如果我们再更高水平上去理解人类道德,就会意识到,虽然人权被默认赋予每一个自然人,但我们和他人的道德关系,却绝不只是取决于我们自己意志,也取决于他人的意志。我们甚至可以把“道德主体”,定义为“有能力改变和他人的关系”的存在。在这个框架下,无论我们多么能共情自己的机器宠物,将其视作家庭成员,只要它无法主动改变和我们的关系,它就只是我们的“玩物”。
哪怕未来的人类极其富有同情心,将权利赋予AI,但我们恐怕仍然不能将这种“权利”看作AI具有完整人性的象征。
因此,按照父母对待孩子的方式来理解未来的高级AI,甚至更加凸显了人类对于AI“获得人性”的心理障碍。这就好像父母对孩子,总是处于“既希望他/她独立,又希望能控制他/她”的矛盾心情中。当然,或许“AI反叛人类”是很刻板的想法。在蔡文菁看来,AI或许能够像小孩一样,通过“表现为超出我的预料,制造惊喜,提出自己的理由等等”,来让我们感受到他的主体性,如同儿童的成长过程。
千年之后,人类的科技高度发达,我们是否能在由我们制造的机器具备完整的人性时,接受他们的人性?这个问题或许会永远处于争论之中。