能否用数学确定美国大选是否舞弊?

作者: 王培

来源: 返朴

发布日期: 2020-11-25 08:00:00

本文讨论了数学在确定美国大选是否舞弊中的应用,特别是本福特定律的使用。文章探讨了数学是否是科学的问题,分析了数学的抽象性和它在经验科学中的应用,以及数学在人工智能设计中的作用。

在本届美国总统选举引起的诸多争议之中,居然连数学都不能置身事外了。拜登的选票数据被指为“不符合本福特定律”(Benford's law,也称“首位数定律”),因此造假的嫌疑很大。关于这个话题本身,李永乐的《拜登选票不符合本福特定律?如何识别数据造假?》做了很好的介绍,我这里就不重复了。

本文要讨论的是一个更为一般的问题:一个抽象的数学结论(如本福特定律)在什么条件下可以回答一个具体的实际问题(如一组选票数据的真实性)?

数学是科学吗?在《返朴》这样的平台上问“数学是科学吗?”会被很多读者认为是荒唐的(等着看评论吧),但其实更荒唐的是:这里的“荒唐感”可能会来自相反的两个方向。很多人认为数学不但是科学,而且是最高级的科学,因为数学所刻画的乃是世间万事万物所遵循的普遍规律。

今年的诺贝尔物理学奖得主之一彭罗斯就是个数学家(或称“数学物理学家”)。倪忆的《彭罗斯:不思考生物化学的诺贝尔物理学奖得主不是好的数学家》中介绍说:“他的原始获奖工作是1965年发表的一篇只有三页的数学论文,在相当广泛的条件下证明了黑洞内奇点的存在”。历史上更广为人知的例子是海王星和冥王星(后者现在不算“行星”了,但这和本案无关),二者都是先“算出来”后“观察到”的。

如果这都不算是科学,什么还能算呢?在理论中大量运用数学常被作为一个学科成熟的标志。这在自然科学中以物理学为最,而在社会科学中的典型大概要数经济学了。

但反方的观点也并非毫无根据。数学的内部逻辑结构和外部应用方式都和其它学科(如物理学和经济学等等)有本质的不同。数学是“抽象”的,就是说它不直接描述外部世界,也不直接面对经验的检验。

比如哥德巴赫猜想,不管在多少数字上得到了验证,仍然是个“猜想”,而把它变成个“定理”则要求从定义和公理出发,使用有效的推理规则来证明。这也是本福特“定律”(law)不是个“定理”(theorem)的原因,尽管有不少人尝试了种种办法把它从某些更基本的前提中证明出来,比如说李永乐那篇文章就在“单位时间内的增长量正比于存量”的前提下推出了本福特定律。

一个物理学结论的真假往往是根据实际观察到的现象而确定的,但一个数学结论的真假一般是根据预设的前提而确定的。“现象”是一个开放的集合,不断会有意想不到新成员来到;“前提”是一个固定的集合,在一个理论的范围内通常是不变的。

化解数学是否算是科学的这种两难局面,通常的办法是把科学进一步划分为“经验科学”和“形式科学”(或者用其他名词),同时承认这两类理论体系的共同点和不同点。

但这仍不足以回答更深层的问题,例如,为什么会有这种差别,以及这两种理论之间的关系是什么。尤其是数学的抽象性,使得它和经验的关系成为问题。的确有很多例子说明数学“归根结底”还是来自于经验,但也有不少例子说明很多数学理论几乎就是“凭空想象”的产物,尽管后来居然发现了巨大的实际用途。物理学家维格纳曾感慨道:“数学在自然科学中已经有效得不合常理了”[1],而对此的解释至今仍然莫衷一是。

从认知的观点看,关于数学“本质”的思考是数学哲学的核心问题之一,有代表性的学派包括柏拉图主义、逻辑主义、直觉主义、形式主义等等。这里不打算对这个领域进行综述,只是表述我的看法。当然这个看法也是受了很多前人影响的,但因为本文不是学术论文,就不进行详细的引用和比较了。我觉得传统数学哲学研究的一个缺陷是“就数学谈数学”,而很多问题要放在一个更广阔的背景上才能看得清楚。

我在前面的一些文章中已经从不同侧面表述了我的科学观。和常见的观点不同,我不认为科学是“对事物的客观描述”,或者“发现宇宙的运行规律”,而是“以指导行动为终极目标对公共经验进行总结、整理的结果”。具体说来,我认为一个理论是否算“科学”是个程度问题,就是说没有完美的科学理论,但有相对较好或较差的。

对经验科学而言,这个程度包括三个彼此独立的成分:(1)和经验的符合程度;(2)指导行动的明确程度;(3)理论内容的简单程度。在选用一个理论时,这三方面的相对权重会随当前场景而变。

一个理论的认知功能是使用概念将芜杂的过去经验概括化,从而将其中稳定的基本联系以“定律”等形式推广到现在和未来,并力图用少量定律来解释(即推导出)大量的观察结果,因此不再需要分别记忆或使用零散的知识。

这种理论的建立和使用一般会提高系统的适应能力。一个经验理论可以被直观地看成一个概念网,其边界节点对应于感知和行动,因此其间的关系被经验所直接约束,而内部节点通过和其它节点的联系被经验所间接约束。在这样一个网络中,每个概念的含义都被其在经验中的角色所确定了,只是边界概念的含义比较具体,而离边界越远的概念越抽象。由于新经验不断被吸收,各个概念的含义可能随理论的发展而或多或少地演变。

在通常情况下,一个基于过去经验的理论既不能保证解释所有观察到的现象,也无法保证其所有预测都不可能错(休谟、波普尔等都做过影响很大的论证),虽然尽可能多地解释有关现象和尽可能准确地预测未来仍是绝大多数理论工作者的努力方向。

数学之所以能提供经验科学所无法企及的确定性,是因为它与经验“脱钩”、“隔离”了。

以几何学为例,其中“点”和“线”的概念固然是来自于经验,但在理论内部却仅保留了“点”的“位置”属性而舍弃了其“面积”等属性,仅保留了“线”的“方向”及“分隔”属性而舍弃了其“宽度”等属性。其结果就是我们不可能直接感知几何学意义下的“点”和“线”,但可以将某些感知结果在不同的近似程度上看作它们,而这种“看作”关系就将抽象的几何概念和具体的感知结果联系了起来。

类似于在“感知”这个认知活动的“输入端”的情形,在其“输出端”,即“行动”或者说“操作”,也有这种“抽象和具体”之别。比如说很多人认为“数”(shù)的观念源于“数”(shǔ)的操作,而“量”(liàng)的观念源于“量”(liáng)的操作。和“推”、“敲”这些具体的躯体动作不同,“数”、“量”是抽象的心理操作,是和前者隔了一层的,二者需要通过一个“看作”关系联系起来。

根据皮亚杰的认知发展理论,抽象操作是在具体操作的基础上建立的[2]。

把“甲乙丙丁”抽象到“ABCD”,或者将后者近似地看作前者的“符号”,这是数学和经验概念相互联系的方式,也就是语义学中的“指称”和“解释”关系。

在构建一个数学理论时,其中的抽象概念被定义和公理赋予了确定的含义,而定理则被证明和公理同真,所以一旦在特定的解释下一个数学理论的公理被认为在一个具体领域中适用,该理论的所有定理就同时都适用。使用这种“批发”的结论自然比“零售”的效率高,再加上同一个数学理论可以在不同的解释下应用于不同的领域,数学对经验科学的重要贡献就不难理解了。

可以说数学的普适性源于认知主体用一组相互协调的感知运动模式处理各种经验的可能性。

数学的这种贡献常常被误解。一个流行的看法是“用的数学越复杂,理论就越好”。数学只是使一个经验理论变得更加严格、精确、一致的语言和工具,而完全不能为其基本前提的正确性负责。由于数学不直接描述现实,其中每个具体结论A实际上都是“如果B,那么A”,这里B是该理论的有关公理在这个论域上的解释。

如果这个解释不恰当,那么结论就无效。比如说两条河汇成了一条,这不是说1+1=2错了,而是加法在这里不适用。回到本福特定律,如果一组选票数据不符合这个规律,那么首先应该考虑“选票数据在单位时间内的增长量是否应该正比于存量?”只有在这个前提得到充分辩护后,“不符合本福特定律”才构成怀疑选票数据真实性的有效理由。当然,对那些从其它前提推出本福特定律的人,所需要进行的论证自然会不同。

前面提到的彭罗斯除了靠他的数学功力解决了重要的物理问题并思考生物化学之外,还写过两本书论证计算机不可能真正达到人类智能的高度。他的核心论据之一就是哥德尔不完全性定理。如果有些真理是机器不可能证明,而却是人可以证明的,这不就说明了机器智能永远达不到人类智能的水平了吗?这个被不少人重复过的论据的缺陷之一就是,没考虑到哥德尔不完全性定理的适用范围是满足特定条件的公理化系统。

“那厮”怎么算和我以往的专栏文章一样,这个讨论最后还是要转到人工智能的设计问题上来,而落地于我研发的“纳思”系统之中。在《证实、证伪、证明、证据:何以为“证”?》中我说明了在纳思的信念中没有绝对真理或公理(“纳思”是NARS,Non-Axiomatic Reasoning System的缩写),因为每个信念的真值都是对已有证据的度量,所以可能被新证据所修改。

即使仅仅考虑这一点,哥德尔不完全性定理就已经不适用于纳思了,因为这个系统不是公理化的,而且不保证传统意义下的一致性。对纳思当然仍可以从很多角度来批评,但是不能再拿哥德尔定理说事。对这一点的详细讨论见参考文献[3]。

如果没有任何结论是确定的,那数学怎么办?简而言之,就是当系统在非公理化信念的汪洋大海中漂泊时,仍可以在各种数学理论所提供的岛屿上得到短暂的稳定感。

和由经验所“自然塑造”的信念不同,数学中的抽象概念和操作是数学家们精心构造和共同维护的结果。和在人脑中类似,纳思中的数学概念的基本含义来自于其定义,而其它的相关经验只能影响对这个概念的直觉或联想,但不能用于证明。一个数学命题的真假不再取决于其来自经验的真值,而取决于它是否是某个数学理论的公理或定理,这二者都是有严格定义的。

一个数学理论的实际应用始于将其中的抽象概念临时对应于(“解释”为)某领域中的具体概念,然后对有关的结论进行相应解读。尽管我们在这个方向的工作仍在初步尝试阶段,纳思中的下列现有功能已经为这种“局部公理化”提供了基础:高阶陈述:纳思可以建立和处理对陈述的陈述,如“1+1=2是真的”。复合概念:纳思中的概念可以构成新概念,如“可以被2整除的数称为偶数”。

变量词项:某些词项可以在不同情境中指代不同概念,如在“如果X是偶数,则X+1是奇数”之中的X。临时关系:词项间的关系可以随时建立或消除,如一个杯子的形状,在只需要近似计算时可以被看成一个圆柱体,但在必须精确时则不再被看作一个圆柱体。假设演绎:从任意给定的前提开始推理,不论该前提本身的真假。

在纳思中做数学推导和传统的定理证明系统会有很大的不同,因为纳思既可以在一个数学理论内部工作(只使用其中的定义和推理规则),也可以在它的外部工作(使用与其有关的经验)。比如要证明一个定理,纳思会先根据以往的经验考虑一下大致该怎么做,而在基本想通后才严格地进行证明。这就和数学家的实际工作过程比较接近了。

抽象概念和具体概念之别还涉及到人工智能理论中的另一个重大问题,就是概念的含义。

以往在概念层面上工作的人工智能系统往往被归类为“符号主义”,而把其中的概念当作指代外部事物的“符号”。这就导致了“系统不知道它所处理的符号的所指”的诘难(所谓“中文屋问题”和“符号接地问题”等等)。但根据前面的讨论,在人脑和像纳思这样的系统中的具体概念本来就没这个“接地”问题(含义本来就是根据经验确定的),而抽象概念到具体概念的解释也是可以在系统内部建立的。

这个问题也在参考文献[3]中有进一步讨论。总而言之,纳思对抽象概念的建立和使用所遵循的基本原则和人的类似,就是把这种概念结构“架空”于经验概念网之上,以避免经验细节的烦扰,并允许它们像“模板”一样被满足条件的各种具体概念结构所“套用”。由于这种套用本身有恰当程度(这个模板的适用条件在多大程度上被满足了)的问题,所以不管一个数学理论多完美,也不能保证其所有实际应用及其结论都正确。

UUID: 2feb12a3-634e-4f43-b941-7c5668f6187e

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/返朴公众号-pdf2txt/2020/返朴_2020-11-25_能否用数学确定美国大选是否舞弊? AI那厮.txt

是否为广告: 否

处理费用: 0.0114 元