AI偏心眼儿,跟谁学的

作者: 李晨阳

来源: 中国科学报

发布日期: 2021-07-06 08:34:13

在探讨人工智能(AI)的公平性时,专家们指出,AI技术发展中的公平性问题映射了人类社会中的歧视和偏见,并讨论了AI公平性的重要方向和面临的挑战。

在探讨人工智能(AI)的公平性时,香港科技大学讲席教授、微众银行首席AI官杨强巧妙地化用了一句流行歌词。他认为,AI技术发展中出现的诸多公平性问题,其实映射了人类社会中本已存在的歧视和偏见。在未来论坛近日发起的“AI向善的理论与实践”论坛上,多位业内专家围绕“AI公平”这个话题开展了深入讨论。

与人类社会相似,在AI的世界里,偏见与不公随处可见。

2014年,亚马逊公司启动了一个通过AI技术开展自动化招聘的项目。这个项目完全基于求职者简历提供的信息,通过AI算法进行评级。然而,第二年亚马逊便意识到这个机器脑瓜并不像想象中那样公平公正——它似乎在歧视女性!当一份简历中出现“women”等字眼时,在打分上就会吃亏。亚马逊分析,这是因为他们使用了过去10年的历史数据来训练这个AI模型,而历史数据中包含对女性的偏见。

之后,亚马逊便不再用这个算法来进行招聘。

AI的公平性问题,本质上并非来源于技术本身,而是来自人心,也就是说,其本源是社会的公平性。中科院计算技术研究所研究员、中科视拓(北京)联合创始人山世光说。他解释道,AI技术从算法和系统的设计,走向社会的应用实践,这个过程涉及方方面面的人,在很多环节,都有可能有意或无意地引入歧视和偏见。

除了不同人群间的公平问题,AI公平还涉及到开发者和使用者(通常是企业和用户)之间的不平等问题。清华大学法学院院长申卫星补充了一个生活中非常常见的案例。大量App在使用时会出现一个“知情同意”的选项,这个知情同意书往往少则上千字,多则上万字,大量的信息让消费者无力长时间阅读,只好选择同意,否则只能退出。

AI技术与社会公平的关系,比想象中更为复杂。搜狗公司CEO王小川指出:总体来讲,AI技术的高度发展对公平性的提升是有利的。首先在技术的加持下,教育、医疗等重大领域在资源供给的数量和质量上都会有极大提升,供给侧的繁荣有助于缓解社会资源分配不均;其次,随着大数据的连接,人们有机会在全局层面上提炼主要矛盾,探讨公平问题,进而达成社会共识。

但这也是一柄“双刃剑”。

互联网发展、信息发展和AI发展为公平性提供了更好的抓手,但也会带来更多新的挑战。其中一个比较敏感的问题是,在机器判断越来越准确之后,公平定义的矛盾将更加突出。比如在金融贷款、商业保险等领域,如果对用户进行个人画像并作出判断后,拒绝向该用户提供服务,如此是否公平?此外,随着AI技术进步带来的资源极大繁荣,很容易产生“马太效应”,导致资源集中在金字塔尖上,拉大社会差距。

这是人类历史上不断出现的问题,值得警惕。

为了更公平的AI而奋斗。论坛上,专家们介绍了产业界、学术界、法律界等在AI公平性上作出的种种努力。

人们开发了许多工具,包括分析数据集形态和质量的工具,能让开发者、工程师清楚看到他们用于训练的数据的特征分布,比如性别、年龄等,至少要满足统计学意义上的合理分布,从而减少潜在的偏见;还有分析算法模型的工具,可以对模型的公平性进行评估,并作出相应纠偏和优化;此外还有帮助开发者对决定模型输出的关键数据特征进行探索的工具以及公平性约束条件下的算法训练工具等。

AI公平性的一个重要方向是数据的可获得性和可使用性。杨强说,他在论坛讲座中强调了“联邦学习”在抵抗数据“马太效应”、促进AI公平性方面的作用。我们研究联邦学习,一个更大的目标是实现“数据可用不可见”,其特征是隐私保护、权益保障、缺陷保障以及确权,而确权和权益保障需要通过经济学来完成。

UUID: bf30d25d-99cc-45f6-aa09-814980eec827

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/中国科学报公众号-pdf2txt/2021-2022/中国科学报_2021-07-06_AI偏心眼儿,跟谁学的.txt

是否为广告: 否

处理费用: 0.0041 元