为什么药物只对某些人有效,而对另一些人无效?为什么 ChatGPT 会产生违背常识的答案?机器学习的发展似乎遇到了障碍,其中症结或许在于“相关性不等于因果性”。近日发表在 Nature 的一篇评论文章指出理解因果关系对于人工智能的重要性。因果推理让机器具备应对变化环境的能力,让机器可以像人类一样通过想象来学习。
计算机科学家 Rohit Bhattacharya 开始攻读计算机科学博士学位时,他的目标是构建一种工具,帮助医生识别对免疫疗法反应良好的癌症患者。Bhattacharya 的想法是创建一个神经网络,可以同时描述肿瘤和人的免疫系统的基因,然后预测哪些人可能从治疗中获益。但他发现他的算法不能胜任这项任务。他能够识别与免疫反应相关的基因模式,但这还不够。
Bhattacharya 是被一个古老的格言所羁绊,即相关性不等于因果关系——这也是人工智能(AI)的一个基本障碍。计算机可以通过训练来发现数据中的模式,即使是那些非常微妙以至于人类可能会错过的模式。计算机还可以利用这些模式进行预测,例如,肺部 X 光片上的斑点表明有肿瘤。但当涉及到因果关系时,机器通常就会不知所措。
要让计算机执行任何决策,它们需要理解因果。将因果模型整合到机器学习算法中,也可以帮助能够自主移动的机器做出如何在环境中游走的决定。Bhattacharya 的案例中,可能是系统指出的某些基因让治疗效果更好。但由于缺乏对因果的理解,这意味着其他解释也可能成立,比如反过来,是治疗影响了基因表达,或者另一个隐藏的因素同时影响了基因表达和疗效。
长期以来,经济学家和流行病学家一直使用因果推理来检验他们关于因果关系的观点。如今,越来越多的计算机科学家致力于将因果与人工智能结合起来,赋予机器解决这些问题的能力,帮助它们做出更好的决策,更有效地学习,并适应变化,Bhattacharya 是其中之一。
过去 10 年,人工智能取得的成功都是由深度学习推动的。通过研究大量的数据,这类系统可以学习如何把一个事物与另一个事物相关联,随后这些习得的关联性就可以投入实际应用。但这只是登上了梯子的第一阶,而这把梯子通向更高目标。
因果推理的一个关键好处在于,它可以让人工智能更有能力应对不断变化的环境。现有的 AI 系统极易受到这些变量相互关联方式产生的任何变化的影响。当学习关系的统计分布发生变化时,人工智能将变得不那么准确。
反事实的想象能力在 Pearl 的因果推理层次结构中处于最高层。Bhattacharya 说,关键是推测未采取行动的后果。想象如果我们采取不同的行动,结果会是更好还是更糟,这是人类学习的一个重要方式。
利用因果关系将想象力编程到计算机甚至可能创造出自动化科学家。这样的系统能够生成假设,能够挑选用于检验这个假设的最佳观测数据,以及能够决定如何设计实验以产生这样的数据。
因果推理的理论和基础数学已经确立,但人工智能实现干预和反事实的方法仍处于初级阶段。Bhattacharya 认为,研究人员应该借鉴机器学习。机器学习的迅速发展,在一定程度上是因为程序员开发了开源软件,让其他人能够使用编写算法的基本工具。
如果研究人员能够成功地将因果纳入计算,那么人工智能的灵活度将会达到一个全新的水平。机器人可以更容易地为自己导航。自动驾驶汽车可能会变得更加可靠。评估基因活性的计划可能产生对生物机制新的理解,进而转化为更新、更好药物的开发。