6月10日,在2023北京智源大会的闭幕式演讲中,75岁的图灵奖得主Geoffrey Hinton发表了题为「通往智能的两种道路」的演讲。他提到,超级智能(superintelligence)诞⽣的时间可能会比他曾经想象的早得多,这引出了两个问题:人工神经网络的智能水平将会很快超越真实神经网络吗?人类是否能保证对超级AI的控制?
Hinton详细讨论了第一个问题,并在演讲的最后表示:超级智能可能将很快到来。
Hinton首先讨论了传统的计算方式,指出计算机的设计原则是要能精准地执行指令,这意味着程序中包含的知识是不朽的,与具体的硬件没有关系。为了实现知识的不朽,我们的做法是以高功率运行晶体管,使其能以数字化的方式可靠运行。但这样做的同时,我们就相当于抛弃了硬件其它一些性质,比如丰富的模拟性和高度的可变性。
随着机器学习技术的发展,计算机有了另一种获取程序和任务目标的方法:基于样本的学习。这种新范式让我们可以放弃之前计算机系统设计的一项最基本原则,即软件设计与硬件分离;转而进行软件与硬件的协同设计。对于软硬件协同设计,Hinton提出了一个新概念:Mortal Computation,对应于前面提到不朽形式的软件,我们这里将其译为「可朽计算」。
可朽计算放弃了可在不同硬件上运行同一软件的不朽性,转而采纳了新的设计思路:知识与硬件的具体物理细节密不可分。这种新思路自然也有优有劣。其中主要的优势包括节省能源和低硬件成本。在节能方面可以参考人脑,人脑就是一种典型的可朽计算装置。虽然人脑中也依然有一个比特的数字计算,即神经元要么发射要么不发射,但整体来说,人脑的绝大多数计算都是模拟计算,功耗非常低。
Hinton在演讲中还提到了大型语言模型(LLM)为他带来的对超级智能威胁的担忧,对于这个涉及人类文明未来的主题,他非常直白地展现了自己的悲观态度。他认为,如果这些数字智能并不通过蒸馏非常缓慢地学习我们,而是开始直接从现实世界学习,那么会发生什么呢?实际上,LLM在学习文档时就已经在学习人类数千年所积累的知识了。
因为人类会通过语言描述我们对世界的认识,那么数字智能就能直接通过文本学习来获得人类积累的知识。
Hinton表示,他做这场演讲主要是想表达出他的担忧。他说:「我认为超级智能出现的时间可能会远远快于我之前所想。」他给出了超级智能掌控人类的几种可能方式。比如不良行为者可能会利用超级智能来操控选举或赢得战争(实际上现在已经有人在用已有AI做这些事情了)。
在这种情况下,如果你想要超级智能更高效,你可能会允许它自行创建子目标。而掌控更多权力是一个显而易见的子目标,毕竟权力越大,控制的资源越多,就更能帮助智能体实现其最终目标。然后超级智能可能会发现,通过操控运用权力的人就能轻松获得更多权力。
Hinton的悲观溢于言表,「现在,我看不到该怎么防止这种情况发生,但我已经老了。
」他希望青年才俊们能够找到方法让超级智能帮助人类生活得更好,而不是让人类落入它们的控制之中。但他也表示,我们有一个人类的优势,尽管是相当小的优势,即AI不是进化而来的,而是人类创造的。这样一来,AI就不具备原始人类那样的竞争性和攻击性目标。也许我们能够在创造AI的过程中为它们设定道德伦理原则。不过,如果是智能水平远超人类的超级智能,这样做也不见得有效。
Hinton说他从没见过更高智能水平的东西被远远更低智能水平的东西控制的案例。就假设说如果是青蛙创造了人类,但现在的青蛙和人类又是谁控制谁呢?最后,Hinton悲观地放出了这次演讲的最后一页幻灯片:这既标志着演讲的结束,也是对全体人类的警示:超级智能可能导致人类文明的终结。