几年前,亚马逊采用了一种新的自动化招聘工具来审查求职者的简历。不久后,公司发现包含“女性”一词(如“女子国际象棋俱乐部队长”)或提及女子学院的简历在技术职位上被降级。问题的根源在于用于训练亚马逊系统的数据。基于公司10年来主要由男性提交的简历,这个“新”自动化系统实际上延续了“旧”的情况,对那些它更“熟悉”的申请人给予优先评分。
人工智能(AI)是由AI4ALL定义的计算机科学分支,它允许计算机进行预测和决策以解决问题。AI已经在世界上产生了影响,从医学进步到语言翻译应用。但正如亚马逊的招聘工具所示,我们教计算机做出这些选择的方式,即机器学习,对它们功能的公平性有实际影响。
另一个例子是面部识别。由MIT的Joy Buolamwini和Google的Timnit Gebru进行的联合研究“性别阴影”评估了三个商业性别分类视觉系统。他们发现,深色皮肤的女性是最容易被错误分类的群体,错误率高达34.7%,而浅色皮肤男性的最大错误率为0.8%。
随着面部识别工具等AI系统开始渗透到社会的许多领域,如执法,错误分类的后果可能是毁灭性的。软件中的错误可能导致嫌疑人被错误识别,最终可能意味着他们被错误指控犯罪。
要消除许多AI系统中存在的有害歧视,我们需要回顾系统学习的数据,这在许多方面反映了社会中存在的偏见。
2016年,一个团队调查了词嵌入的使用,它在机器学习中充当某种词义和关系的字典。他们使用Google新闻文章的数据训练了一个类比生成器,以创建词关联。例如,“男人是国王,女人是x”,系统填入了女王。但当面对“男人是计算机程序员,女人是x”的情况时,系统选择了家庭主妇。
其他女性-男性类比,如“护士到外科医生”,也表明词嵌入包含反映了社会中性别刻板印象的偏见。然而,“由于它们作为基本特征的广泛使用,词嵌入不仅反映了这些刻板印象,而且还可以放大它们,”作者写道。
AI机器本身也在延续有害的刻板印象。女性化的虚拟个人助手,如Siri、Alexa和Cortana,被指控复制了关于女性角色服从和次于男性的规范假设。他们对暗示性问题的编程回应进一步加剧了这一点。
根据南非人类科学研究委员会的研究专家Rachel Adams的说法,如果你告诉三星的虚拟个人助手Bixby的“让我们说脏话”,回应将是“我不想最终出现在圣诞老人的淘气名单上。”但问程序的男性声音,回答是“我读到土壤侵蚀是一个真正的脏问题。”
尽管改变社会对性别的看法是一项艰巨的任务,但了解这种偏见如何嵌入AI系统可以帮助我们在这个技术未来的发展。普林斯顿大学计算机科学系的助理教授Olga Russakovsky与IFLScience讨论了理解和克服这些问题。
Russakovsky的工作集中于从三个维度解决AI偏见:数据、模型和构建系统的人。她还关注AI中使用的算法,这些算法可以增强数据中的偏见。与她的团队一起,她已经确定了避免卷积神经网络(CNNs)中偏见放大的算法技术。
在解决人类在AI中产生偏见的作用方面,Russakovsky共同创立了一个基金会AI4ALL,致力于增加AI中的多样性和包容性。她解释说,确保尽可能多的社区的声音在AI领域被听到,对于其未来至关重要,因为:“一个社区的成员最能识别该社区面临的问题,这些问题可能被非社区成员忽视或不完全理解。”
我们如何看待在AI领域工作,也可能有助于多样化从事该领域的人员池。Russakovsky总结道:“我期待AI的未来是我们的多元化领导者正在深思熟虑地塑造这个领域,负责任地使用AI,并考虑到社会影响。”