未经验证的人工智能软件,正借着疫情的“东风”流入职场和学校。新冠疫情期间,科技公司一直在推销他们的情绪识别软件,用于远程监测企业职员乃至儿童,比如一个名为4 Little Trees的系统。该程序在香港开发,声称能侦测孩子完成作业时的情绪。它能映像每个孩子的面部特征,把孩子的情绪状态分为快乐、悲伤、愤怒、恶心、惊讶和恐惧。它还能估计“动机”和预测成绩。市面上也有类似的工具对远程工作的员工进行监控。
根据一项估计,到2026年,情绪识别产业可能会增长至370亿美元。
科学界对AI能否侦测情绪分歧甚深。一项2019年的报告发现[1],没有可靠证据表明AI具备这种能力。这项研究的结论是:“科技公司可能提出了一个本身就不成立的问题。”科学界越来越担心对这些技术的使用和滥用。
去年,Rosalind Picard说她支持加强监管——Picard是人工智能初创公司Affectiva的联合创始人,并在麻省理工大学领导情感计算研究小组。学者们也呼吁对招聘中使用的所有AI技术进行严格、强制审核,并公开披露结果。今年3月,由伦敦Ada Lovelace研究所召集的公民小组说,应由独立的法律主体监督生物识别技术的开发和实施。
这类监督对于抵制我称之为“颅相学冲动”(phrenological impulse)驱动的系统很有必要——颅相学冲动是指从外部表象得出对内部状态和能力的错误假设,目的在于攫取人们不愿意透露的更多信息。
世界各国对开发用于身体的药物都有科学上严谨的规定,那些胡乱猜测我们想法的工具至少也应遵循同样的监管。数年来,学者们一直在呼吁联邦机构监管机器人学和面部识别;这种监管理应拓展到情绪识别的领域。
国家监管机构是时候开始防范未经检验的应用了,特别是针对儿童和其他弱势人群的应用。临床试验让我们看到监管为何如此必要。联邦政府的规定和接踵而来的呼声让越来越多的临床试验数据对公众开放,并接受严格的验证。这成为了制定更好政策和确保公众信任的基石。对情感技术的监管会带来类似的益处和责任。这也将有助于建立规范,避免机构企业手伸得太长。
测谎仪则是个很好的参照。
这种谎言测试发明于上世纪20年代,被FBI和美国军方用了几十年,其自相矛盾的结果害了数千人,最后为联邦法律所禁止。直到1998年,美国最高法院才裁定“对测谎仪证据的可靠性没有达成共识。”关于人类情绪具有几种基本面部表情这一说法,心理学家Paul Ekman可谓是其背后的一个鲜明人物。
60年代,他去巴布亚新几内亚高地验证一个有争议的假设,即所有人类都有少数几种“基本”情绪,这些情绪是天生的,具有跨越文化的一致性。人类学家Margaret Mead很早就质疑了这种观点,称它忽略了背景、文化和社会因素。
但是,Ekman所描述的六种情绪特别契合计算机视觉这一新兴领域的模式。
我在2021年的新书《人工智能图集》里写道,他的理论之所以被采纳,是因为它正好迎合了那些工具的能力范围:六种固定不变的情绪可以大规模地标准化和自动化——只要无视更复杂的问题就好了。2001年9月11日的恐怖袭击后,Ekman将自己的系统卖给了美国运输安全管理局,用于评估哪些航空乘客表现出恐惧或压力,因而可能是恐怖分子。因为缺乏可信度且带有种族偏见,这一系统受到强烈抨击。
然而,许多今日的工具如4 Little Trees,都是基于Ekman的六种情绪分类。(Ekman仍坚称面部会表达基本情绪,但他认为没有证据表明自动化技术有用。)
可是,很多公司仍然在销售那些没有明确记录、有效性未得到独立核实的影响人们发展机遇的软件。求职者受到不公正的评判,只因为他们的面部表情或声调和内部员工的不一致;学校里的学生被重点关注,只因为他们看起来很愤怒。
研究者还表明,面部识别软件认为黑人面孔比白人面孔有更多负面情绪。我们不允许情绪识别技术继续野蛮生长。在教育、卫生、雇佣和司法等所有领域,应立法禁止这些工具在未经证实的情况下被使用。这些法律保障将重塑严谨的科学,也让人们知道:我们的内在情绪并不是能从我们面部识别出的另一批数据而已。