溯因推理:人工智能的盲点

作者: Ben Dickson

来源: 数据实战派

发布日期: 2021-10-24 10:01:00

计算机科学家埃里克·拉森(Erik Larson)的新书《人工智能的神话:为什么计算机不能像我们那样思考》讨论了广泛宣传的有关于智能和推理的误解是如何将AI研究引向限制创新和科学发现的狭窄道路的。Larson警告说,除非科学家、研究人员和支持其工作的组织改变方向,否则他们将注定要“听命于机器世界的蔓延,在那里真正的发明被边缘化,取而代之的是鼓吹当前方法的未来主义言论,而这些言论往往来自既得利益者。”

深度学习的最新进展重燃了人们对可以像人类一样思考和行动的机器或通用人工智能(AGI, Artificial General Intelligence)的兴趣。这种想法认为,沿着构建更大更好的神经网络的道路前进,我们将会向创造数字版的人类大脑不断迈进。或许,这就是个神话。计算机科学家埃里克·拉森(Erik Larson)认为,所有证据都表明人类和机器智能完全不同。

Larson的新书《人工智能的神话:为什么计算机不能像我们那样思考》(The Myth of Artificial Intelligence: Why Computers Can’s not Think of The Way We Do)讨论了广泛宣传的有关于智能和推理的误解是如何将AI研究引向限制创新和科学发现的狭窄道路的。

Larson警告说,除非科学家、研究人员和支持其工作的组织改变方向,否则他们将注定要“听命于机器世界的蔓延,在那里真正的发明被边缘化,取而代之的是鼓吹当前方法的未来主义言论,而这些言论往往来自既得利益者。”

从科学的角度来看,AI的神话假设我们将通过在狭义的应用上取得进展来实现AGI,如图像分类、理解语音命令或玩游戏等。但这些狭隘人工智能(Narrow AI, 只能完成某一项特定任务或者解决某一特定问题的人工智能)系统所采用的技术并不能解决通用智能能力必须解决的更广泛的挑战,如进行基本对话、完成简单的家务或其他需要常识的任务。

Larson写道:“当我们成功地应用更简单、更狭义的智能版本(这些版本受益于更快的计算机和大量数据)时,我们并未取得渐进式的进展,而是在采摘唾手可得的果实。”AI神话的必然结果是忽视智能的科学奥秘,无休止地谈论深度学习和其他当代技术的不断进步。正因此谬论,科学家思考解决智力挑战的新方法屡次受阻。

演绎、归纳和溯因推理是智能生物的基本功能。我们不断地依据所知道的和所感知的来推断事物。大多数情况是在潜意识中发生的,在我们的思想背景中,并没有重点聚焦和直接关注。Larson表示:“任何进行推理的系统都必须具有一些基本的智能,因为使用已知和观察到的信息来更新信念的行为,不可避免地会与我们所说的智能相关联”。

AI研究人员将其系统建立在两种推理机的基础上:演绎(deductive)和归纳(inductive)。具体来说,演绎推理运用先验知识对世界进行推理。这是符号AI的基础,也是AI最初几十年研究人员的主要关注点。工程师通过赋予符号系统一套预定义的规则和事实来创建符号系统,AI便使用这些知识对接收到的数据展开推理。而归纳推理是通过经验获取知识,在过去十年中,深受AI研究人员和科技公司的青睐。

第三种推理,溯因推理,由美国科学家查尔斯·桑德斯·皮尔斯(Charles Sanders Peirce)在19世纪首次提出。溯因推理是一种认知能力,能够产生直觉和假设,做出比随机刺探真相更好的猜测。例如,街道变湿的原因可能有很多(包括一些我们之前没有直接经历过的),但溯因推理使得我们能够选择最有希望的假设,迅速排除错误选项,寻找新的假设并得出可靠的结论。

然而,问题在于AI社区尚未对溯因推理给予足够的重视。在20世纪80年代和90年代,溯因在溯因逻辑编程(Abductive Logic Programming)的尝试中走进了AI讨论,但这些努力都存在缺陷,后来被放弃了。Larson告诉TechTalks:“它们是对逻辑编程的重写,是演绎的一种变体。”在2010年代,溯因获得了另一个机会,即贝叶斯网络,一种试图计算因果关系的推理引擎。

但Larson说,与早期的方法一样,新方法也有一个缺陷,那就是不能捕捉到真正的溯因。此外,他强调,贝叶斯和其他图形模型都是“归纳法的变体”。

在很大程度上,AI的历史一直被演绎和归纳所主导。Larson说:“当早期的AI先驱,如[Alan] Newell、[Herbert] Simon、[John] McCarthy和[Marvin] Minsky等开始研究人工推理(AI的核心)问题时,他们认为编写演绎式规则会足以产生智能思维和行动。”“事实并非如此,早在讨论我们如何开展科学研究时就应该承认这一点。”

几十年来,研究人员试图通过提供手动编写的规则和事实来扩展符号AI系统的力量。前提是,如果你赋予AI系统人类所知晓的所有常识,它就能像人类一样聪明地行动。但纯粹的符号AI由于种种原因失败了。符号系统无法获取和添加新知识,这使得它们变得僵化。创建符号AI变成了无休止的追逐,添加新事实和规则不过是为了发现系统所犯无法修复的新错误。

我们的很多知识都是隐性的,无法用规则和事实来表达,也无法直截了当的灌输给符号系统。

在过去的二十年里,随着数据和计算资源的可用性不断增长,ML算法——尤其是深度神经网络——无疑成为AI领域关注的焦点。深度学习技术已经解锁了许多超越先前计算机限制的应用程序。并且,它吸引了世界上一些最富有的公司的兴趣和资金。“我认为随着万维网的出现,经验或归纳(以数据为中心)的方法占据了主导地位,而溯因和推理在很大程度上被遗忘了,”Larson说。

但ML系统也受到了严重的限制,包括缺乏因果关系、边缘案例处理不佳,以及需要大量数据。随着研究人员尝试将ML应用于医疗和金融等敏感领域,这些限制变得越来越明显和问题化。

AI的溯因推理和未来道路包括强化学习的先驱理查德·萨顿(Richard Sutton)在内的一些科学家认为,我们应该坚持使用能够随着数据和计算的可用性而扩展的方法,即学习和搜索。例如,随着神经网络变得更大,接受更多数据的训练,它们终将克服自身限制并取得新的突破。

Larson对数据驱动的AI的扩展不屑一顾,认为它“作为一种智能模型存在根本的缺陷”。他重申,尽管搜索和学习都可以提供有用的应用,但其都是基于非溯因推理。“如果没有一场关于推理的思考革命,搜索将不会扩展到常识或溯因推理,而这还没有发生。与ML类似,学习方法的数据驱动本质上意味着推理必须存在于数据之中,可以这么说,但这显然并不适用于人们日常执行的许多智能推理”,Larson说道。

其他科学家认为,将符号系统和神经网络结合在一起的混合AI在解决深度学习的缺点方面拥有更值得期待的前景。其中,一个例子是IBM沃森(Watson),它在美国最受欢迎的智力竞赛电视节目《危险边缘》(Jeopardy!)击败世界冠军时就出名了。最近的概念验证混合模型在符号AI和深度学习单独表现不佳的应用中显示出了有希望的结果。

Larson认为,混合系统可以填补只使用ML或只基于规则的方法的空白。作为NLP领域的研究人员,他目前正致力于将大型预训练语言模型(如GPT-3)与以知识图形式出现的语义网络的旧工作相结合,以在搜索、问答和其他任务上创建更好的应用。他说:“但是演绎-归纳组合并不能让我们进行溯因,因为这三种类型的推理在形式上是截然不同的,所以它们不会相互还原,也无法结合起来得到第三种。”

在《人工智能的神话》一书中,Larson将试图规避溯因的行为描述为“推理陷阱”。他写道:“无论计算机的速度有多快,像ML这样纯粹的归纳启发技术仍然存在不够成熟,并且像沃森这样的混合系统也缺乏一般的理解。在诸如需要语言理解之类的开放式场景中,溯因是核心且不可替代的。正因为如此,试图结合演绎和归纳策略的尝试总是注定要失败……这一领域需要一个基本的溯因理论。与此同时,我们陷入了困境。”

AI社区对数据驱动方法的狭义关注已使研究和创新集中在少数几个拥有大量数据和雄厚资金的组织中。随着深度学习成为一种将数据转化为盈利产品的有效方式,大型科技公司现在陷入了聘用AI人才的激烈竞争中,以高薪为诱饵,吸引研究人员走出学术界。这种转变使得非营利实验室和小公司很难参与到AI研究之中。

Larson说:“当你把AI的研发与非常大的数据集的所有权和控制权联系在一起时,你就会为那些不拥有数据的初创企业设置准入障碍。”并补充说,数据驱动的AI在本质上造成了商业领域“赢者通吃”的局面。AI的垄断反过来也阻碍了科学研究。随着大型科技公司专注于开发应用程序,利用其庞大的数据资源保持对竞争对手的绝对优势,因此几乎没有动力来探索AI的替代方法。

这一领域的研究开始倾向于狭义的、有利可图的应用,从而牺牲了能够带来新发明的努力。Larson说:“目前没人知道,在不具备如此庞大的集中式数据集的情况下,AI会是怎样?因此,对于那些希望通过设计不同的、更强大的AI来与之竞争的企业家来说,真的没有什么可提供的。”在书中,Larson对当前的AI文化提出了预警,这种文化“正在从唾手可得的果实中榨取利润,同时继续编造AI神话”。

他写道,对AGI进展的幻想可能导致另一个AI冬天。不过,尽管AI冬天可能会减弱人们对深度学习和数据驱动AI的兴趣,但它可以为新一代思想家探索新方向开辟道路。Larson希望科学家在现存方法上进行探索并超越。Larson在其书中还提供了一个推理框架,阐明了该领域目前面临的挑战,并帮助读者了解有关AGI或奇点(singularity)进展的夸大说法。

Larson表示:“我希望非专业人士有一些工具来对抗这种不科学的必然性思维,我的同事和其他AI科学家应该将其视为警钟,致力于解决该领域面临的非常现实的问题。”

UUID: 12730261-a14e-432d-b59c-dcd6bdbdfb68

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2021年/学术头条_2021-10-24_「转」溯因推理:人工智能的盲点.txt

是否为广告: 否

处理费用: 0.0086 元