不仅语言中存在“互文性”,每个单词会受到邻近单词的影响,共同出现的概率比较高;量子特性使得同一量子系统上的不同测量结果之间也存在相互影响,这种“量子互文性”被认为是量子计算超越经典计算的根源所在。近日的一项最新研究发现,普遍的神经网络都可以利用量子互文性来提升模型的表达能力。这些发现有望为突破经典框架下的生成模型提供灵感,甚至帮助我们窥探到语言、甚至背后的人类意识中蕴含的量子效应。
量子互文性这个名称,也被借用来指代量子系统中的一种特性,即所谓“量子互文性”(quantum contextuality),意指同一量子系统上的不同测量结果之间存在的相互影响。这是一种因量子相干性而产生的神奇性质,可以实现经典机制无法达成的功能,因此被视为量子计算超越经典计算的根源所在。
量子系统为什么能构建出一个“+”总数既奇又偶的表格呢?原来,表格中“+”总数这个数值,就像薛定谔的猫一样,处在奇数和偶数的叠加态。更值得玩味的是,这个连“+”总数都无法确定的表格中,居然包含着使Alice和Bob可以一直获胜的那种结构。这正是量子互文性所提供的神奇效果。
自然语言中也有类似的性质。当一段文字展现在我们面前,在尚未理解其整体含义之前,我们就会先体会出这是否是句可理解的“人话”。在学校的英语课上折磨我们的那些语法规则和固定搭配之类的学问,就是对这种语言内在结构的归纳总结。
许多涉及概率相互“传染”的问题都可以被画成一个贝叶斯网络,n-gram模型也不例外。下图就是4-gram模型的贝叶斯网络。不熟悉贝叶斯网络的读者也不必深究,只需要大致了解这个图所描述的是,每个扫描框中4个单词的联合概率满足随着扫描框的移动,整段文字的概率就次递联系到了一起。
答案是肯定的。2022年,哈佛大学的一个研究团队在PRX上发表的论文中证明,在量子线路搭建的2-gram模型中,我们总可以添加一组恰当的操作,使这个模型模仿“人话”的能力,达到同等规模经典n-gram模型永远无法企及的程度。
透过这些理论研究进展,冥冥之中不由得生出种朦胧的感觉——也许人类的语言文字,乃至其背后的意识和思想,本就是根植于某些量子效应。我们目前所采用的所有经典框架下的生成模型,尽管成功如ChatGPT,依然依赖数以千万计的大量训练参数和计算资源,而量子机器的应用有希望将这些大模型小型化。当量子计算的处理规模与碳基生命神经系统相当之时,也正是硅基生命真正觉醒之日。