小型初创企业和大型专业团队都在使用AI寻找和招募新员工,但这些工具可能加重偏见。
今年1月,住在美国西雅图的用户体验顾问Torrey Podmajersky收到了来自一位名叫Jennie Johnson的猎头的冷邮件。邮件写道,Johnson为Podmajersky创建了一份职业档案,并推荐了几个匹配的职位空缺。
但是档案过于笼统,缺少她的职业履历的几处重要细节,Podmajersky也根本没有在找工作,她以为这是场诈骗。直到她翻到邮件底部,她才发现Johnson甚至不是人类。这封电子邮件来自人工智能(AI)机器人,这背后的公司把它描述为一个“精英职业教练的AI代表”。
Podmajersky回忆道:“(我感到)恶心,因为我意识到这个设计是为了让人感到自己很特别,有人关心和支持,而这一切都是虚假的。
”纽约州奥尔巴尼市的退休销售和市场主管Douglas Hamilton也收到了Jennie Johnson的电子邮件。Hamilton表示机器人的岗位推荐都是“错误的角色、错误的行业、错误的层级”。他之所以打开那封邮件,是因为猎头的照片吸引了他的目光,这在招聘信件中并不常见。但那张照片也是AI生成的。
机器人人工智能Jennie Johnson是生成式AI公司Hyperleap开发的工具的一部分。
在过去几个月中,Jennie Johnson给许多专业人士发送了不请自来的邮件。不论是小型初创公司还是领英(LinkedIn),招聘平台都在更多地使用AI来发现、筛选、招聘新的员工,Jennie Johnson只是该现象的一个例子。随着这些工具变得愈发复杂,专家们担心它们可能使得就业市场对求职者来说更不人性化,并且可能加重现有的偏见。
位于犹他州帕克城的Hyperleap公司制作了这款在线求职工具Jennie Johnson,它为注册开启服务的用户自动发送整理的岗位。公司的首席运营官Kevin Holbert表示,这个AI会搜索在线职位公告栏和企业网站,构建一个可检索的数据库。然后,它会梳理一个人的领英档案、简历和工作经历,将信息在其数据库中匹配,推荐工作机会。
虽然任何人都可以注册该服务,但是Holbert表示,像Podmajersky和Hamilton这样会收到这些不请自来的邮件是因为Hyperleap在早期营销中为了获取新用户和一个招聘平台合作过。他表示,任何注册了那个平台的用户也会收到来自机器人人工智能Jennie Johnson的通知。然而,Podmajersky和Hamilton在那段时间都没有注册任何招聘平台。
Holbert表示,公司那之后“终止了这项合作”,并“持续清理我们的名单,删除未参加的用户”。在人力资源管理行业中,自动化技术已经被使用了十余年,由此自然延伸出了类似Jennie Johnson这样的服务。
来自美国人力资源管理协会(Society for Human Resource Management,SHRM)的Regan Gross为人力资源专家提供招聘中的建议,Gross表示,自动化技术包括基于关键词筛选简历的申请人追踪软件。《财富》(Fortune)世界500强中97%的公司已经在依赖这样的工具筛选申请人。
SHRM在2022年的一项调查中发现,42%的受访组织(员工人数大于等于5000人)宣称在与人力资源相关的活动上,如招募和聘用等,使用了自动化技术或AI。Gross认识到这些工具的潜在益处,但表示它们存在局限性。例如,尽管AI应用可以帮助完成简单任务,比如总结申请人的技能,但它们还无法捕捉人格和特质,而这些对招聘方也很重要。
Gross预测广泛使用AI会迫使求职者“寻找(新的)方法来展现自己的独特性”。
AI应用逐步使得招聘中越来越多的环节自动进行。例如,和Jennie Johnson类似,类似领英这样的 крупные平台现在会自动将候选人的工作经验和技能同空缺的职位匹配。包括ZipRecruiter在内的一些平台还提供拟人化聊天机器人。新一代生成式AI甚至允许雇主将整个招聘流程外包给算法,包括搜寻候选人和进行预先设计好的面试。
Holbert表示,Hyperleap给AI搭建了一个人类人格,使其“更易于亲近”,这样人们可以“表现得更自然”。然而,英国萨塞克斯大学(University of Sussex)商学院的组织行为研究者Zahira Jaser表示,自动招聘过程中的不透明可能起反作用。Jaser主张,不确定是否在和人类打交道会影响候选人在求职中的表现,也会阻碍招聘方准确评估候选者的正常行为。
在研究AI面试的过程中,Jaser发现,申请者如果认为自己在和线上机器人而不是一个人类聊天,往往表现得没那么自然。例如,他们倾向于固定地盯着屏幕,并避免手部动作。
Jaser的研究表明,AI面试经常会不利于第一代大学生、说话有口音、背景不够优越的候选人。Jaser补充道,没有足够的人类监管,基于AI的招聘可能强化现有的偏见。
“从成本控制的角度,采用这些系统可能很好,但是如果不加核实,可能造成多样性和包容性不足的问题,”她说。AI招聘工具的开发者常说他们的算法有潜力比人类更加客观——前提是这些工具的训练数据足够包容和多样。然而,英国剑桥大学(University of Cambridge)AI伦理研究者Eleanor Drage表示:这样的说法是误导人的,表明其对真实世界的偏见运作缺乏理解。
Drage表示,因为基于AI的招聘系统是基于过去的聘用趋势和实践训练的,这些数据常常存在偏见和歧视,它们会不可避免地在词语之间构建联系,重复同样的模式,就算公司明确排除了种族、性别这些因素。
Jaser表示,尽管目前围绕AI招聘工具的宣传很高调,但很多人力资源部门还在等待AI证明它们的能力后才会采用它们。她补充道,除非它们被证明有效、公正和可靠,在那之前希望它们不会被大规模采用。