人类语言和思维的力量源自系统的组合性。如今,人工智能(AI)或许也掌握了这种能力。人们善于学习新概念,并将它们与已有概念进行系统组合。例如,一旦一个孩子学会了如何跳跃,他们可以通过组合技能理解如何向后跳或绕锥形物跳两次。这种将新老概念结合的能力被称为系统泛化(systematic generalization)。
然而,一篇发表在Nature上的最新研究挑战了这个已经存在了35年的观点。在该研究中,纽约大学心理学和数据科学助理教授Brenden Lake和西班牙加泰罗尼亚研究所(ICREA)教授Marco Baroni提出了一个具有类似人类系统泛化能力的神经网络。
具体而言,研究团队使用了“组合性元学习(MLC)”的方法来优化组织能力。通过并行比较人类与神经网络,他们发现,MLC能掌握、有时甚至能超过类似人类的系统泛化能力。另外,MLC还在多个系统化泛化基准测试中提高了机器学习系统的组合技能。
该方法可以让机器与人类进行更自然的互动,甚至超过目前最好的AI系统。虽然基于大型语言模型(LLMs)的系统(如ChatGPT)在许多情况下都能很好地进行对话,但在其他情况下却表现出明显的缺陷和不一致。
研究团队表示,虽然元学习方法无法让该神经网络对训练之外的任务进行泛化,但他们的研究结果有助于今后开发出行为更像人类大脑的AI。有望解决更广泛的问题。尽管MLC取得了一些成功,但它并不能解决所有挑战。例如,MLC不能自动处理未经练习的泛化形式或在元学习分布之外的概念。此外,它无法泛化到它未经优化的归纳偏见中。