机器人越来越像人了,但和人互动时,它如果不明所以地咧开嘴笑了,这大概并不会传达出开心之情,而是让人感到恐惧。不过现在,一款名叫Emo的机器人就不会这么瘆人。它可以分析人类的面部表情,并在人类做出表情前的0.839秒就预测出人类即将做出的表情,于是它可以和人类几乎同时一起微笑,从而避免尴尬或让人害怕。
目前,大多数机器人只会在人类做完表情后再做出反应。这种滞后会让机器人显得不真实、不真诚。对人而言,在面对面的沟通过程中,微笑之类的非语言交流非常重要。我认为准确预测人类面部表情是人机交互(Human-Robot Interaction)领域的一场革命,该研究的主要作者、美国哥伦比亚大学创意机器实验室(Creative Machines Lab)的博士生胡宇航说道。
在2021年,他和研究团队还开发了一个名叫Eva的机器人,这是首批能够自我模仿人类面部表情的机器人之一。从Eva到Emo,我们可以看到机器人在模仿人类面部表情方面实现了显著的进步。事实上,要实现这一点很困难,这首先需要研究人员打造出一张能够实现逼真的面部肌肉运动的机器人脸,其次还要让机器人通过人工智能学习人类表情的细微差别,并迅速做出准确的反应。
与机器人Eva相比,Emo具有显著的硬件改进。Eva脸部只有10个执行器,而Emo有26个独立的执行器——这些组件可以更精密地控制机器人脸部的运动,而且也提供了更大的自由度,可以实现不对称的面部表情。而机器人的整个面部皮肤由柔软的硅胶制成,并使用30块磁铁连接到硬件上。磁铁连接的设计使得机器人可以轻松换皮肤,从而获得不同的外观,并能让人得以更好地维护它的“脸皮”。
当被问及机器人的脸为什么是蓝色时,研究团队的负责人、哥伦比亚大学机械工程教授霍德·利普森(Hod Lipson)表示,他们想离开或者走出所谓的“恐怖谷”。除了复杂缜密的硬件和驱动装置,研究人员还为机器人开发了两个独立的人工智能模型。一个模型可以分析人类微小的面部表情线索,然后预测人即将做出的表情。另一个模型则负责计算如何让机器人的脸部快速做出相应的表情。
虽然机器人在掌握非语言交流方面还有很长的路要走,但现在这个微笑算是向前迈出了一步。我认为这是一个重要的一步,利普森说道。在同步微笑之后,研究团队之后还打算拓宽机器人的表情范围,并进一步研究口型同步。现在,机器人Emo只会分析人类的面部表情,还无法通过分析语言文本与人类对话。研究人员希望后续能把机器人与ChatGPT等大型语言模型相结合,实现更加自然的人机互动。
虽然这有望带来大量积极的应用,但其潜在的伦理问题也让一些人感到担心。