新AI系统能将人脑信号翻译成文本,准确率高达97%

来源: ScienceAlert

加州大学旧金山分校的研究人员开发了一种新方法,通过解码脑电图信号,将人脑活动翻译成文本,准确率高达97%。这一技术可能会为失去说话能力的患者提供一种新的沟通方式。

世界刚刚开始适应亚马逊和谷歌等公司制造的虚拟助手的强大和复杂性,这些助手相比几年前的技术,能够以惊人的精度解码我们的口语。然而,一个更加令人印象深刻和令人难以置信的里程碑可能就在眼前,使得语音识别看起来几乎像儿戏:能够将我们的大脑活动翻译成完整文本的人工智能(AI)系统,而不需要听到任何一个字。这并不完全是科幻小说。

脑机接口在过去的几十年中取得了飞跃性的进展,从动物模型发展到人类参与者,并且实际上已经在尝试这种事情。只是还没有达到很高的准确性,加州大学旧金山分校的研究人员在一项新研究中解释道。为了看看他们是否能改进这一点,由UCSF的Chang实验室的神经外科医生Edward Chang领导的一个团队使用了一种新方法来解码脑电图:记录在皮质活动期间发生的电脉冲,通过植入大脑的电极获取。

在研究中,四名患有癫痫的病人佩戴了这些植入物来监测由他们的医疗状况引起的癫痫发作,UCSF团队进行了一项侧实验:让参与者阅读并重复一系列设定的句子,同时电极记录他们在练习期间的大脑活动。这些数据随后被输入到一个神经网络中,该网络分析了与某些语音特征(如元音、辅音或口部运动)相对应的大脑活动模式,基于实验的音频记录。

之后,另一个神经网络解码了这些表示——从30-50个重复的口语句子中获得——并试图仅基于单词的皮质特征来预测正在说的话。在最好的情况下,该系统在将大脑信号翻译成文本时,对一名参与者的单词错误率(WER)仅为3%——这可能是AI在严格定义的实验条件下,最接近读取某人思想的一次。当然,处理普通人类演讲的专业抄写员必须应对词汇量扩展到数万单词的情况。

相比之下,这个系统只需要学习有限的一组短句子中使用的约250个独特单词的皮质特征,所以这并不是一个公平的比较。尽管存在许多障碍,但研究人员认为该系统可能会成为失去说话能力的患者的一种语音假体的基石。如果这是可能的,那将是一个大事件——为一些人提供了一种与世界沟通的方式——并且可能远远超出实验迄今展示的范围。

UUID: 6c0d171d-e2f4-4037-8c46-ae85e764730d

原始文件名: /home/andie/dev/tudou/annot/2020英语网页/New AI System Translates Human Brain Signals Into Text With Up to 97 Accuracy ScienceAlert.txt

是否为广告: 否

处理费用: 0.0026 元