当长辈在家族群中发“无籽葡萄是避孕药泡过的”谣言推送时,我颤巍巍地把果壳的科普甩进群里,等待长辈的谆谆教诲。但为什么年轻人给老一辈科普还要背上“大不敬”的罪名?如果社交媒体能直接搭载AI识别谣言,只要长辈一发“千滚水不能喝”之类的东西,AI就自动警铃大作,在长辈的手机屏幕上弹出“此条消息是谣言”的警告,岂不美哉!
其实AI识别谣言并不新鲜。去年,阿里巴巴达摩院的科学家就造了个AI谣言粉碎机,据称谣言识别准确率达81%。阿里开发的AI用的是自然语言处理技术,分三步来判断谣言。首先,AI会找到内容最初的信息源,并分析用户画像。其次,寻找网上所有的信息源,看内容链接的域名是不是来自可信的网站。最后,将正文里关键的论证提炼为知识点,与知识图谱里的权威知识库做匹配验证。
在社交媒体时代,每个互联网用户都是内容生产者,谣言治理是个全球性的难题。除了国内的阿里、今日头条等在AI识别谣言上做出努力之外,国外的脸书、推特等社交媒体为打击假新闻,也搭载了AI来识别谣言。尽管很多人对AI识别谣言寄予厚望,但实际上,现在AI的能力还没想象中的那么强。目前谣言识别仍然依赖人工核查,AI处于补充地位,主要在识别简单重复的虚假内容、假新闻网址和机器人账号上发挥作用。
为什么现阶段在识别谣言上,AI还拼不过人工呢?一些专家认为,AI无法单独胜任谣言识别的工作。尽管AI可以提取某些事实并进行粗略的情感分析,但它无法完全理解人类的写作方式,对文字的语境和语调带来的细微差别束手无策,也没办法自己打电话去求证核实。
为了识破阴谋论并将它扼杀在摇篮里,加州大学的文化分析小组也尝试,训练AI来识别谣言和阴谋论的基本特征与内容框架,以便“按图索骥”,谣言一露头就加以控制。通过这些特征,AI不需要全面收集数据就能近乎实时识破阴谋论,不过加州大学这个“阴谋论识别模型”依旧在完善之中。
人类联手AI对抗谣言已经是一个趋势,不过在等待AI变得更“聪明”、扼杀更多谣言之前,提高自身的科学素养和信息甄别能力才是更重要的。