女朋友生气了吗?算法可能比直男更懂

作者: 神经小姐姐

来源: HyperAI超神经

发布日期: 2019-08-09

AI技术在情绪识别方面的发展,特别是在语音识别情感方面的研究,正在快速发展。亚马逊的Alexa语音助手已经能够识别多种情绪,并通过分析用户指令做出回应。此外,麻省理工学院和以色列的Beyond Verbal公司也在这一领域取得了显著进展。然而,情绪识别技术仍面临挑战,如情感边界的界定和情绪的快速变化等问题。

利用 AI 技术判断一个人的情绪通常有两种途径,一种是通过面部表情,另一种是通过语音。前者已经比较成熟,而语音识别情感方面的研究,正在快速发展。近期,一些科研团队提出了新的方法,来更准确地识别用户声音中的情绪。

“女朋友是生气了么?”是千古难题。所以,女朋友的“我没生气,真的没生气”=“很生气”;“我生气了”=“撒娇,没生气,亲亲抱抱举高高嘛”。这样的情绪逻辑让直男们抓狂。究竟应该怎么样才能听出女朋友到底生气了没呢?据说,AI 已经在听音识情绪上做出成绩,可能比男生抓耳挠腮地琢磨半天的结果更准确。

亚马逊语音助手 Alexa 在感知情绪方面,可能比男朋友还机智。今年,经过最新升级后,Alexa 已经能够通过分析用户指令的高低和音量等反应,识别出快乐、高兴、愤怒、悲伤、烦躁、恐惧、厌恶、厌倦甚至压力等情绪,并对相应指令做出回应。人工智能做情绪分类已不是什么新鲜事了,不过,最近,亚马逊 Alexa Speech 团队前段时间打破了传统方法,发表了新的研究成果。

亚马逊不是唯一一家研究改进的基于语音的情绪检测的公司。麻省理工学院媒体实验室 Affectiva 最近演示了一个神经网络 SoundNet:可以在短短 1.2 秒内(已经超越人类感知愤怒所需时间)将愤怒与音频数据分类,并且无论哪种语言。未来的工作将开发其他大型公共语料库,并为相关的基于语音的任务训练 AI 系统,例如识别其他类型的情绪和情感状态。

以色列创业公司 Beyond Verbal 开发了一款名为 Moodies 的应用,它能够通过麦克风采集说话者的声音,经过 20 秒左右的分析,判断说话者的情绪特征。尽管语音分析专家承认语言与情绪具有相关性,但不少专家却质疑这种实时测算的准确性——这类工具收集到的声音样本非常有限,实际的分析可能需要收集数年的样本。

虽然很多科技公司已经在这方面有着多年的研究,也得到不错的成果。但是,正如上文 Andrew Baron 所质疑的,这项技术还面临多个挑战。就像女朋友一句平静的“我没生气”并不代表她真的没生气一样,一个发音中可以包含多种感情,不同情感的边界也难以界定,哪个情绪是当前主导的情绪?此外,一种情绪可能持续很长时间,但期间也会有快速变化的情绪,情感识别系统是检测长期的情绪还是短时的情绪呢?

UUID: 12560f44-77e6-42fc-8346-aa08f1fc01d6

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/果壳公众号-pdf2txt/2019/2019-08-09_女朋友生气了吗?算法可能比直男更懂.txt

是否为广告: 否

处理费用: 0.0040 元