人工智能也存在性别偏见?

作者: Jansfer

来源: 学术头条

发布日期: 2019-09-28

本文讨论了虚拟个人助理在人工智能应用中的性别偏见问题,指出这些助理普遍使用女性声音和名字,并在回答问题时表现出性别刻板印象。文章还提到了人工智能系统在招聘算法中的性别偏见,以及设计团队中缺少女性可能加剧了这一问题。

以Bixby(三星),Alexa (亚马逊), Siri (苹果)和 Cortana (微软)为代表的虚拟个人助理是目前人工智能(AI)市场最前沿的技术。然而在这项技术的应用中却存在着严重的性别偏见。

人工智能是指利用技术系统执行人类通常会执行的任务。虚拟个人助理作为智能设备上的应用程序,通过自然语言处理程序来响应语音命令,在世界各地正受到越来越广泛的使用。根据联合国教科文组织(UNESCO)最近的一份报告估计,到明年人类与虚拟个人助理的对话将多于与自己配偶的对话。

当我们向三星的虚拟个人助理 Bixby 提议“让我们来谈论脏的话题吧”(Let's talk dirty),随后 Bixby 会以甜美的女性声音回复道:“我可不想被列入圣诞老人的黑名单。”(I don't want to end up on Santa's naughty list.)当我们对带有男声的该程序问到同样的问题时,得到的回复是“我了解到土壤侵蚀真的是一个污染问题。

”(I've read that soil erosion is a real dirt problem.)

如今市场上所有的虚拟私人助理均带有默认的女性声音,与 Bixby 一样,该女性声音被编程为回答各种带有暗示性的问题和评论。当我们提问“你穿什么?”的时候,Siri 的回答是“我为什么要穿衣服?”(Why would I be wearing anything?), Alexa 回答道:“他们不给我做衣服”(They don't make clothes for me)。

三星根据客户所选的语言种类提供了不同声音的 Bixby 助理。对于美式英语,有朱莉娅(Julia)、斯蒂芬妮(Stephanie)、丽莎(Lisa)和约翰(John),朱莉娅(Julia)、丽莎(Lisa)和斯蒂芬妮(Stephanie)的声音显得妖艳而热切,而约翰(John)的声音给人聪慧且直率的印象。

除了回答方式以及声音的不同之外,这种偏见最明显的表现之一就是女性名字的使用:比如 Siri 和 Cortana。Siri 是一个北欧名字,意思是“带领你走向胜利的美丽女人”。Cortana 的名字、声音和形象均来自游戏《光晕》系列。Cortana 是由一位成功的女科学家的大脑克隆而成,拥有一个透明且非常性感的女性身体。她以其谦逊的智慧和迷人的外形,在游戏中为玩家提供了一个顺从且忠诚的虚拟助手。

虚拟私人助理的设计通过女性的名字、声音和程序化的调情方式,再现了女性秘书带有歧视性的刻板印象。同时在技术应用中还强调了女性次要的地位以及对男性的顺从。

人们越来越认识到,人工智能系统往往存在偏见,尤其是在种族和性别方面。例如,亚马逊(Amazon)最近开发的为求职简历分类的招聘算法显示出性别偏见,将包含“女性”一词或涉及女子学院的简历降级。由于该人工智能的算法是根据历史数据和优先招募男性来学习的,最终由于无法修改而被放弃使用。

研究表明,具有性别偏见的人工智能系统的开发与设计团队中缺少女性之间存在着关键的联系。AI Now 是一家研究人工智能对社会影响的研究机构,该机构表明男性主导的人工智能产业与其生产的歧视性系统及产品之间有着明显的联系。

AI 是第四次工业革命中的领先技术,正在迅速改变我们所认知的世界,因此思考和解决推动这些变化的技术如何影响女性将变得越来越重要。

UUID: f550b3ff-eabe-495b-a96a-402ee65508b8

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2019年/2019-09-28_人工智能也存在性别偏见?快去问问你的人工智能助手.txt

是否为广告: 否

处理费用: 0.0033 元