让AI做决策,我们的社会准备好了吗?

作者: 学术头条

来源: 广岛大学

发布日期: 2022-06-06 16:50:56

广岛大学的研究小组探讨了人类对引入人工智能决策的反应,特别是关于自动驾驶汽车在道德决策中的应用。研究发现,人们对人工智能道德决策存在恐惧,这种恐惧的根源并非个人固有,而是来自个人认为是社会的看法。此外,是否允许讨论该话题以及国家的信任度影响了人们对人工智能道德决策的接受度。

随着技术的加速发展,人工智能(AI)在决策过程中发挥着越来越重要的作用。人类越来越依赖算法来处理信息、推荐某些行为,甚至代表他们采取行动。但是,如果真的让AI帮助、甚至代替我们来做决策,尤其是涉及主观的、道德伦理相关的决策,你能接受吗?近日,一个来自广岛大学的研究小组探究了人类对引入人工智能决策的反应。

具体来说,他们通过研究人类与自动驾驶汽车的互动,探讨了一个问题:“社会准备好接受人工智能道德决策了吗?”该团队于2022年5月6日在Journal of Behavioral and Experimental Economics上发表了他们的发现。

在第一个实验中,研究人员向529名人类受试者展示了驾驶员可能面临的道德困境。在研究人员创建的场景中,汽车驾驶员必须决定是将汽车撞向一群人还是另一群人,而且碰撞是不可避免的。也就是说,事故将对一组人造成严重伤害,但会挽救另一组人的生命。实验中的人类受试者必须对汽车驾驶员的决定进行评分,驾驶员有可能是人类,也有可能是人工智能。以此,研究人员旨在衡量人们可能对人工智能道德决策产生的偏见。

在他们的第二个实验中,563名人类受试者回答了研究人员提出的一些相关问题,以确定人们对AI在成为社会的一部分后,对人工智能伦理决策有何反应。在这个实验中,有两种情况。其中一个涉及一个假设的政府,该政府已经决定允许自动驾驶汽车做出道德决定;另一个场景允许受试者“投票”是否允许自动驾驶汽车做出道德决定。在这两种情况下,受试者都可以选择支持或反对技术做出的决定。

第二个实验旨在测试将人工智能引入社会的两种替代方式的效果。

研究人员观察到,当受试者被要求评估人类或人工智能驾驶员的道德决定时,他们对两者都没有明确的偏好。然而,当受试者被问及是否应该允许人工智能在道路上做出道德决定的明确意见时,受试者对人工智能驾驶的汽车有更强烈的意见。研究人员认为,这两个结果之间的差异是由两种因素共同造成的。

第一个要素是,很多人认为整个社会不希望人工智能做与伦理道德相关的决策,因此当被问及对此事的看法时,他们会被自己的观念所影响。第二个要素是,在将这项新技术引入社会时,是否允许讨论该相关话题的结果,因国家而异。

研究人员认为,这种对新技术的拒绝,主要是由于个人对社会意见的信念,很可能适用于其他机器和机器人。重要的是要确定个人偏好如何汇总为一种社会偏好。此外,正如我们的结果所表明的那样,这类结论在各国之间也必须有所不同。

UUID: 097d2605-1dfd-405c-8d9d-5f6939cd299d

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2022年/学术头条_2022-06-06_让AI做决策,我们的社会准备好了吗?.txt

是否为广告: 否

处理费用: 0.0031 元