一项新研究表明,侮辱性言论即使是由机器人发出的,也能对我们造成伤害。你可能认为来自机器人的批评性评论——这些机器人只是按照编程说话,没有意识或情感——是我们很容易忽略的刺痛。但根据一项涉及40名参与者的测试,情况并非如此,这些参与者在游戏中不得不忍受人形机器人Pepper的侮辱。在Pepper的鼓励下,人类在游戏中的表现更差,而在机器人的鼓励下,表现更好。
这项研究可能有助于我们了解未来如何将机器人用作伴侣或学习工具。当机器人起义开始时,它可能从几句尖刻的评论开始。"这是在非合作环境中进行人类与机器人互动的最早研究之一,"卡内基梅隆大学的计算机科学家Fei Fang说。"我们可以预期家庭助手会合作,但在在线购物等情况下,它们的目标可能与我们不同。"该研究涉及40名参与者,他们与Pepper玩了35次名为Guards and Treasures的游戏。
游戏是一种Stackelberg游戏,包括防御者和攻击者,旨在教授理性。虽然所有参与者在测试过程中在理性方面都有所提高,但那些被机器人对手侮辱的人并没有达到与那些受到表扬的人相同的分数水平。玩家对批评性机器人的看法也更负面,这是可以预料的。Pepper的言语侮辱包括诸如"我不得不说你是一个糟糕的玩家"和"在整个游戏过程中,你的游戏变得混乱"等评论。
研究结果与之前的研究一致,表明'垃圾话'确实会对游戏表现产生负面影响——但这次是来自自动化机器。虽然这只是一项小规模研究,但随着我们与机器人的互动越来越频繁——无论是在家中通过智能扬声器还是在医院中作为改善心理健康的机器人——我们需要了解人类对这些看似人性化的机器的反应。
在机器人可能认为自己比我们更了解的情况下,如从A点到B点的方向或商店购物,程序员需要知道在编写机器人代码时如何最好地处理这些争论。接下来,研究团队希望研究机器人发出的非言语线索。研究人员报告说,一些研究参与者"技术上很熟练",完全理解是机器人让他们分心——但仍然受到编程反应的影响。
"一位参与者说,'我不喜欢机器人说的话,但那是它被编程的方式,所以我不能责怪它,'"卡内基梅隆大学的计算机科学家Aaron Roth说。该研究尚未在同行评审期刊上发表,但已在印度举行的IEEE国际机器人与人类互动通信会议上展示。