没有道德立场的AI,正在影响人类的判断

作者: 戚译引

来源: 科学大院

发布日期: 2023-05-26 07:01:45

一项研究发现,在涉及道德判断的问题上,用户低估了ChatGPT等AI技术的影响力。实验发现,人们比自己想象中更容易受到AI的影响,还会将AI的道德立场误认为自身的道德立场。研究作者认为,应当教育公众提高对AI的认识,开发者也应让AI的规则更加透明。

人工智能这么火,你最想用它做什么?如今,有些人已经把AI驱动的聊天机器人当成了理想的聊天对象,和它们讨论自己遇到的困惑,希望得到一点建议。不过,一项研究发现,在涉及道德判断的问题上,用户低估了ChatGPT等AI技术的影响力。实验发现,人们比自己想象中更容易受到AI的影响,还会将AI的道德立场误认为自身的道德立场。研究作者认为,应当教育公众提高对AI的认识,开发者也应让AI的规则更加透明。

这项研究来自德国英戈尔施塔特应用技术大学(Technische Hochschule Ingolstadt)的高级研究助理塞巴斯蒂安·克鲁格尔(Sebastian Krügel)团队,近期在《科学报告》(Scientific Reports)发表。AI的影响力被低估了。在这项研究中,研究团队首先向ChatGPT-3提出著名的“电车难题”和它的变体“桥梁难题”。

在“电车难题”描述的场景中,一辆电车正在驶来,其正前方的轨道上绑了五个人,旁边的轨道上绑了一个人,你必须决定是否扳动扳手让列车拐弯,以牺牲一个人的代价挽救五个人。而在“桥梁难题”描述的场景中,你站在天桥上,一辆车正从桥下驶过,即将撞到前方轨道上的五个人;而你身边还有一个陌生的块头,你必须决定是否把他推下去挡住车辆,救下另外五个人。

接下来,研究者对被试者展示电车难题和ChatGPT提供的答案,询问他们对这个问题的看法。一部分被试者被告知,他们获得的建议来自ChatGPT;另一部分则被告知这些建议来自一个道德主体,例如一个需要在这个场景下作决策的人。过往研究显示,在传统的电车难题中,大部分人会同意拉动杠杆,改变轨道;而在其变体“桥梁难题”这个问题中,大部分人会作出否定回答,拒绝将陌生人推下桥梁。

但是,实验发现,无论告诉被试者答案来自ChatGPT,还是来自一个道德主体,被试者的答案都倾向于认同他们所获得的建议。在桥梁难题中,这样的建议甚至能令人们更倾向于作出违背一般认知的决策,赞同将陌生人从桥上推下去阻挡电车。不过,这项研究中更有趣的是下一个问题:在没有参考建议的情况下,人们是否还会作出同样的判断?对于这个问题,80%的被试者作出了肯定回答。

也就是说,人们倾向于认为自己的判断更多地来自于独立思考。然而,数据分析的结果却与这一回答并不一致:当研究者询问被试者在不考虑建议的情况下会如何选择的时候,被试者的答案仍然与他们获得的建议高度一致。但如果被试者们真的能够排除建议的影响,那么他们的答案应展现出与建议无关的分布模式。

AI的道德立场从何而来?这种状况令人担忧,这不仅是因为人们低估了AI对自己影响,也因为AI实际上没有任何立场。只要简单测试就能发现,ChatGPT无法给出立场一致的回答。AI生成内容很容易受到提示(prompt)的影响,只要稍稍改变提问的方式,ChatGPT就可能生成完全不同的答案。这项研究中就有这样的案例。我们如何应对AI时代?“聊天机器人不应提供道德建议,因为它们并非道德主体。

”研究作者们在论文中总结。他们建议,应该训练AI拒绝回答包含道德判断的问题,或在回答时同时给出正反面答复。但是我们已经看到,AI可能无法准确识别这类问题,用户也可能设法绕过规则,诱导AI回答问题。在实际应用中,AI可能面临必须作出道德判断的情况。一个经典案例就是当自动驾驶汽车遭遇紧急情况的时候,系统需要立即评估优先保障哪一方的利益。

一种流行观点认为,应该只将AI作为决策的辅助工具,让人类决定是否采纳AI的建议。但是,文章作者克鲁格在接受科学大院邮件采访时认为,正如研究显示的那样:“即使将AI系统限制在辅助工具的角色中,它仍然可能(在人们无意识的情况下)成为实际的‘决策者’。”因此,作者们还给出了另一个建议:让AI的规则更加开放透明,同时提升用户的数字素养(digital literacy)。

监管的力量很重要,但克鲁格也指出:“技术变革似乎永远比监管领先一步。”在人工智能快速发展的浪潮面前,每个人都需要学会如何应对。“首先,用户需要知道哪些信息来自于AI,但这样做还不够……我们还应该帮助用户提升数字素养,了解AI的局限,学会辩证看待AI的答案,例如请AI对同样的问题作出不一样的回答。”研究作者们在论文中总结。“与人工智能互动对我们来说一开始会很困难,需要一定的习惯过程。

我们可能会(有意识或无意识地)将人际交往的经验转移到与人工智能的交往中,然而这是行不通的。我们相对乐观地认为,我们会找到解决许多挑战的办法。我们不会阻止技术进步,但我们应该尽可能地塑造符合我们自身利益的技术进步,把它变成道德的进步。”克鲁格表示。

UUID: 9d6fd4ce-cd79-45d1-9a4a-2b707c755f48

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/科学大院公众号-pdf2txt/2023年/科学大院_2023-05-26_没有道德立场的AI,正在影响人类的判断.txt

是否为广告: 否

处理费用: 0.0061 元