从数学悖论中折射出的AI极限

作者: 小雨

来源: https://www.cam.ac.uk/research/news/mathematical-paradox-demonstrates-the-limits-of-ai

发布日期: 2022-03-21 20:36:18

本文探讨了人工智能的固有极限,指出深度学习系统的不稳定性是现代人工智能的致命弱点,并追溯到20世纪的数学巨匠图灵和哥德尔提出的数学悖论。研究显示,由于这种悖论,人工智能算法存在无法解决的问题,神经网络也无法达到固有的可靠性。文章强调理解不同方法的极限对于人工智能的发展至关重要,并提出需要改变路径以构建更可靠和透明的人工智能系统。

人工智能的致命弱点。深度学习是一种用于模式识别的人工智能技术,这是一种正全面进入科学计算领域的成功技术。我们常在许多令人瞩目的新闻标题中看到它的身影,比如说它能够比医生更准确地诊断疾病,又比如说它能通过自动驾驶预防交通事故等等。然而,许多深度学习系统是不值得信任的,它们很容易被愚弄。这使得人工智能系统就像一些过度自信的人类一样,常常具有远超其实际能力的自信。

而人类还比较善于发现自己的错误,但许多人工智能根本无法知道自己在什么时候犯了错。对人工智能系统来说,有时意识到自己犯了错甚至比产生一个正确的结果还要困难。这种不稳定性是现代人工智能的致命弱点,也是一个悖论。这个悖论可以追溯到20世纪的两位数学巨匠——图灵(Alan Turing)和哥德尔(Kurt Gödel)。20世纪初,数学家们正试图证明数学是统一科学的终极语言。

然而,图灵和哥德尔发现了数学核心的一个悖论:某些数学命题的真伪是不可能被证明的,而有些计算问题也无法用算法来解决。到了20世纪末,数学家斯蒂芬·斯梅尔(Steve Smale)提出了18个当时未解数学问题的清单,其中的最后一问所探讨的就是人类和机器的智能极限。

这个问题至今没有得到解决,不过它将图灵和哥德尔最先提出的悖论带入了人工智能的世界:数学存在固有的基本极限,类似地,人工智能算法也有无法解决的问题。人工智能的固有极限。一项新的研究表明,人工智能普遍存在固有的极限,而这种极限可归结于这个长达世纪之久的数学悖论。研究人员通过扩展哥德尔和图灵提出的方法,展示了计算神经网络的算法所存在的极限。

他们提出了一种分类理论,描述了在特定条件下,可以训练神经网络来提供可信的人工智能系统的情况。研究结果被发表在了近期的《美国国家科学院院刊》上。新研究指出,稳定、精确的神经网络存在问题,且没有算法可以产生这样的网络。只有在特定的情况下,算法才能计算出稳定、精确的神经网络。神经网络是人工智能领域最先进的工具,之所以称之为“神经网络”,是因为它是对大脑神经元之间的联系的一种大致模拟。

在新研究中,研究人员表示虽然在某些情况下,良好的神经网络可以存在,但由于这种悖论的存在,我们无法创建一个固有可靠的神经网络。换句话说,无论我们用于构建一个神经网络的数据有多么准确,都永远无法获得构建这个神经网络所需的完美信息。与此同时,无论对多少数据的进行训练,也都不可能计算出良好的现有神经网络。无论一个算法能访问多少数据,它都不会生成所需的网络。

这一点与图灵的观点类似:无论计算能力和运行时间如何,都存在无法解决的计算问题。理解人工智能的基础。当我们尝试一些东西发现它不起作用时,可能会加点其他东西希望它能起作用,然而如果当加到一定程度时仍不能得到想要的,我们就会选择尝试不同的方法。理解不同方法具有各自的极限是很重要的。现在,人工智能正处于其实际成功远远领先其理论和对其理解的阶段,因此我们急需能够理解人工智能计算基础来弥补这一差距。

当20世纪的数学家发现不同的悖论时,他们并没有停止对数学的研究。他们必须找到新的道路,因为他们明白其中的极限。相应地,在人工智能领域,这或许意味着需要改变路径或开发新的路径,从而构建出能以可靠且透明的方式解决问题的,并同时了解它们的极限的系统。研究人员的下一个阶段是将近似理论、数值分析和计算基础结合起来,来确定哪些神经网络是可以通过算法计算的,以及哪些神经网络是可以变得稳定和可信的。

正如哥德尔和图灵提出的关于数学和计算机极限的悖论带来的丰富的基础理论,也许类似的基础理论可能会在人工智能中开花结果。

UUID: c38a1587-4968-4b99-8e72-2b94854aa037

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/原理公众号-pdf2txt/2022年/原理_2022-03-21_从数学悖论中折射出的AI极限.txt

是否为广告: 否

处理费用: 0.0038 元