机器学习是人工智能(AI)热潮的一大驱动力。不久前,美国俄勒冈州立大学计算机科学荣誉教授、人工智能进步协会(AAAI,人工智能领域最负盛名的协会)前主席及国际机器学习协会创始主席托马斯·迪特里奇(Thomas Dietterich)教授接受《国家科学评论》(NSR)采访,谈到了机器学习的最新进展和技术挑战,以及其对世界的巨大影响。
机器学习为开发高性能软件提供了新的方法。
在传统的软件开发过程中,我们与用户交谈,规划用户需求,然后根据需求,设计、实施和测试满足这些需求的算法。通过机器学习,我们仍会制定软件系统的整体目标,但我们自己并不设计算法,而是收集训练案例(通常是通过人工标注数据点),然后应用机器学习算法来自动学习所需的功能。这些由新方法开发出的软件,可以为我们解决传统软件工程方法所解决不了的许多问题。
具体来说,从前的视觉对象检测和识别、语音识别和语言翻译方法的性能达不到可用水平。但是随着机器学习最近的进步,我们现在拥有了可以执行这些任务的系统,其准确性(或多或少)可与人类的表现相媲美。因此,机器学习这一关键技术使许多应用成为现实,比如自动驾驶汽车、实时驾驶指引、跨语言用户界面及支持语音的用户界面等。机器学习对于网页搜索引擎、推荐系统和个性化广告也很有价值。
许多人预测机器学习方法将导致一场医学革命,特别是在医学图像的自动收集和分析领域。机器学习在现代公司的运营方面也是一种前景良好的工具,例如它可以帮助预测客户需求并优化供应链。它也是训练机器人执行灵活制造任务的关键技术。
机器学习方法可以帮助收集和分析数据,例如,机器学习方法和技术可用于分析大型强子对撞机收集的大量数据,也对天文数据的分析至关重要。
通过辅助设计实验,机器学习技术可以帮助科学家决定需要收集哪些数据,随后机器人系统可以在实验室或现实世界中自动执行这些实验,例如由Ross King开发的“自动化科学家”程序可以设计、执行和分析它自己的实验,远洋滑翔机器人也是由人工智能系统控制的。机器学习技术也开始应用于控制那些在生态系统和城市中收集数据的无人机。我个人的研究重点是应用机器学习来改善我们对地球生态系统的管理。
例如,在俄勒冈州,经常发生雷电造成的森林火灾。这些火灾可以摧毁濒危物种的栖息地,烧毁本可能用于建造房屋的树木。导致这些大火的原因之一,是美国扑灭了多年来的每一起火灾。这一做法非常昂贵,也使得可燃物在森林中累积。所以,当发生新的火灾时,燃烧会十分剧烈且更具破坏性。我们正在应用机器学习(强化学习)方法来找出决定哪些火灾应被扑灭、哪些火灾应被允许燃烧的有效规则。
这些规则能帮助节省资金,并有利于保护濒危物种。机器学习方法也可以用于绘制熊猫等濒危物种的位置和种群地图。在美国,我们开发了新的机器学习方法来预测和理解鸟类迁徙。为新疾病、空气污染和交通工具绘制传播地图也涉及类似问题。
在商业和金融方面,机器学习方法可以辅助识别欺诈和盗窃。我的工作小组一直在研究异常检测的算法,它可以识别异常交易,并将其呈报给人工分析员,以对其进行法律干预。机器学习方法也有助于“智慧城市”的发展。我提到过交通管理和污染测绘,除了这些,机器学习技术也可以应用于确定哪些地方需要新的基础设施建设(例如供水、电力、网络)。在美国,机器学习已被应用于绘制20世纪老建筑物中使用神经毒性铅涂料的分布图。
近来最激动人心的发展就是对深度学习方法的研究浪潮。大多数机器学习方法要求数据科学家定义一组“特征”来描述每个输入信息。比如,为了识别图像中的对象,数据科学家首先需要从图像中提取诸如边缘、斑点和纹理区域等特征。然后将这些特征输入到机器学习算法来识别相关对象。深度学习可以允许我们把原始图像(像素)直接提供给学习算法,而无需事先定义和提取特征。
我们发现,深度学习可以习得正确的特征,而且它对这些特征的把握比我们通过人工编码做得更好。因此,当面对输入信息(如图像、语音信号等)和输出信息(如对象、句子等)之间存在巨大差距的问题时,深度学习能够做得比以前的机器学习方法好得多。但是,有很多问题的特征是易于提取的。例如,在欺诈检测中,我们可能会检查信用卡交易的数量、在何时何地发起交易等信息。
这些信息已经在高级特征中被表现出来,而在这样的应用中,深度学习并不能提供太多的帮助。深度学习算法也很难训练,这需要大量的计算机时间,因此在大多数问题中,它们并不是首选方法。
机器学习面临许多重要的研究挑战。第一个挑战是改进无监督学习(unsupervised learning)和强化学习(reinforcement learning)的方法。
几乎所有最近的研究进展都集中在所谓的“监督学习”方面,即“老师”告诉计算机每个训练示例的正确答案。可是在许多问题上我们缺少老师,却拥有大量数据。比如当我们试图检测异常交易或欺诈交易时,就需要开发可以从数据中学习而无需老师监督的“异常检测”算法。普遍而言,有许多类别的“无监督”学习算法可以在没有老师的情况下学习。
需要更多研究的另一个领域是强化学习。强化学习通过给予奖励或惩罚来训练电脑执行复杂任务。
在许多问题中,计算机可以自己计算奖励,这使得计算机可以通过试错(trial and error)而不是老师提供的例子来学习。强化学习在解决控制问题(如自动驾驶汽车、机器人以及我前面提到的火灾管理问题)方面特别有价值。强化学习的方法仍然很慢且很难应用,所以研究人员正试图寻找使其加速的方法。此外,现有的强化学习算法只在单一时间尺度上运行,这使得这些方法难以在涉及不同时间尺度的问题中学习。
例如,学习将所驾驶的汽车保持在行车道内的强化学习算法,无法同时学习规划从一个地点到另一个地点的路线,因为这些决策在非常不同的时间尺度上发生。分层强化学习(hierarchical reinforcement learning)研究正在试图解决这个问题。
像所有新技术一样,机器学习肯定会改变就业市场。
涉及简单重复性劳动的工作——无论是重复性体力劳动(如工厂作业和卡车驾驶),还是重复性智力劳动(如法律、会计和医学方面的许多工作)——可能至少部分地会被软件和机器人取代。与工业革命时期一样,随着这些新技术的发展,经济可能会受到很大影响。重要的问题是,机器学习和人工智能是否会创造新的工作。这种情况在工业革命时期发生过,我认为在人工智能革命中还会再次发生,但新产生的是怎样的工作还很难预测。
于是,我想到了最初开发互联网时都发生了什么。20世纪80年代初我大学毕业,当时互联网协议被开发部署,协议旨在将文件从一台计算机转移到另一台,从本地计算机登录到远程计算机。我们那时还完全想不到会有万维网、搜索引擎、电子商务亦或是社交网络!这意味着我们那时也无法预测出互联网将会创造出哪些新的工作机会(网页设计师、用户体验工程师、数字广告、推荐系统设计师、网络安全工程师等等)。
我认为今天同样很难预测未来的工作将是怎样的,但一定会有创造、训练、定制和维护人工智能系统的工作。我认为对于大部分现有工作来说,完全自动化的性价比并不高。相反,有可能每种工作的80%内容将被自动化,但剩下的20%依旧会由人来完成。如此,这个人会变得更有价值,并将得到优厚的报酬。
我认为在众多人类工作中,有一个方面很难被自动化,那就是同理心(empathy)。
机器人和人工智能系统与人类将会有非常不同的经验(experiences)。与人类不同,它们无法“设身处地为别人着想”,因而无法理解人类,并和人类产生情感共鸣。相反,像外星人或《星际迷航》中的数据少校(Commander Data),它们需要被训练,才能预测和理解人类的情感。
相比之下,人类自然而然地就能做到这些事情,因为我们都知道“成为人类是怎样一种感受”(what it feels like to be human)。因此,涉及同理心(例如咨询、辅导、管理、客服)的工作最不可能实现令人满意的自动化,当人类客户重视“真实的人际交互”而不接受与机器人或自动化系统交互时尤其如此。
如果大多数工业和农业生产实现自动化以后,可以将由此产生的财富在社会中平均分配,那么人类可以拥有更多时间去做其他事情。会有更多人去其他国家旅行以了解他国文化,体育、游戏、音乐和艺术也可能更加普及。一百年前,人们很难找到地方按摩或修脚,可现在这些服务几乎到处都有。谁又能知道一百年后,人们会想要做什么,想要拥有怎样的体验呢?
关于“奇点”有两种不同的流行观念。让我分别来谈。
美国发明家雷·库兹韦尔(Ray Kurzweil)提出的概念是,由于许多技术以指数速度快速改进,所以对于久远未来的预测十分困难。这就是“技术奇点”(technological singularity)的想法,当技术的改进速率达到无限大,就会产生一个数学上的奇点。但这是不可能的,因为所有技术都有限制(尽管我们不知道限制是什么)。
美国经济学家赫伯特·斯坦因(Herbert Stein)提出过一个著名经济学法则:“一事若不能永续,则必将停止”(If something can’t go on forever, it won’t)。摩尔定律(Moore’s Law)遵循这条法则,所有人工智能技术也都遵循这条法则。
然而,即便真正的数学奇点不会出现,我们目前确实正经历着人工智能系统功能的指数式增长,所以它们的未来功能将与当前功能大不相同,用标准外推法推测它们的功能是不可能的。所以我相信库兹韦尔是正确的,在这个呈指数变化的未来中我们看不到很远。
关于“奇点”的第二个概念是所谓的超级智能(superintelligence)的兴起。
这个说法最早由英国数学家欧文·约翰·古德(I.J. Good)在1965年的一篇文章中提出,即在某个时间点人工智能技术将跨越一道门槛,它将能够递归式地改善自身,然后迅速改进并变得远比人类聪明。那将是人类的“最后发明”。通常情况下,这一门槛被认为是“人类层次的人工智能”(human-level AI),即人工智能系统能与人类智能相提并论。我不相信这个说法,主要有几个原因。
首先,机器学习的整体目标是创建可以自主学习的计算机系统。这是一种自我完善(通常用于改进学习系统本身,因此是递归式的自我完善)。然而,这样的系统在完善自己时从来没能超越一次迭代,也就是说,系统能完善自己,但是它所产生的系统却不能自我完善。我认为造成这种情况的原因是我们把这个问题表达为一个函数优化的问题,而一旦你找到了这个函数的最优值,则根据定义,进一步的优化将无法带来任何改善。
为了保持指数式改进,每项技术都需要反复突破。摩尔定律不是一个单一的过程,实际上是一个改进的阶梯,每一级台阶都涉及一个不同的突破。我相信这使我们回到了库兹韦尔的技术奇点,而不是超级智能。
第二,支持超级智能的论证把“能和人类智慧相提并论”设定为人工智能发展的临界点,这是非常可疑的。对我而言,这样的说法就像哥白尼和达尔文曾经推翻的迂腐想法一样具有误导性。
对于计算机可以获得的智能而言,人类可能并没有任何特别之处。人类智慧的限制很可能是由多种因素决定的,包括我们大脑的体积和计算能力、我们生命的长度以及我们每个人都必须自己学习(而不是像并行和分布式计算机一样)这一事实。计算机在处理很多任务上已经比人类更加智能化,包括作业车间调度、路线规划、飞机控制、复杂系统(如大气层)模拟、网络搜索、记忆、计算、某些形式的定理证明等等。
但是,所有这些超越人类的能力都并没有导致古德所描述的那种超级智能的诞生。
第三,我们观察到在人类中,智能往往涉及广度而不是深度。像史蒂芬·霍金(Stephen Hawking)这样伟大的物理学家比我更了解宇宙学,但我在机器学习方面比他懂得更多。此外,实验表明,在某个方面是专家的人,在其他大多数方面都达不到平均水平。这就意味着将智能比作梯子的梯级——这正是递归式自我完善论证的基础——是错误的比喻。
相反,我们应该把智能比作在桌面上扩散的液体,或比作生物多样性,每个知识分支都在人类智能的雨林中占据一个生态位。在这样的比喻中,并没有暗示出一个门槛的存在,一旦跨越就会诞生超级智能。
我主张库兹韦尔关于奇点的看法是正确的,但这并不意味着人工智能技术本质上是安全的,无需担心的。事实上远非如此。
确实,计算机在变得更加智能,驱使我们尝试使用计算机承担高风险决策,例如控制无人驾驶汽车、管理电网或参与战争(作为自主武器系统)等。但正如我前面提到的,当前的机器学习技术尚未可靠或稳健到能被委以重任,负责如此危险的决策。我非常担心人工智能技术的过早部署,可能会产生由于机器学习组件中存在某种错误(bug)而导致重大伤亡的情况。
像《2001太空漫游》中的HAL 9000一样,如果我们给予计算机对重要系统的自主控制权,但随后又出现了编程错误或机器学习故障,计算机将可能会“接管世界”。我不认为计算机会自发地“决定”接管世界,那只是一个科幻小说中的故事情节。我也不认为计算机会“想要变得和我们一样”,这是另一个至少可以追溯到匹诺曹的故事情节(也许在中国文化中还有更古老的故事?)。
人类决策可能不如计算机准确快速,但是在面对意料之外的情况时,我们更加稳健,能够更好地识别和应对计算机系统中的故障。也正因如此,我认为在所有高风险决策的过程中,人类都不应当缺席。
是的,教授加入公司已经造成了显著的“人才流失”(brain drain)。
这一现象的产生有几个原因:首先,在新型人工智能产品的开发中存在激烈的公司间竞争,所以很多公司会向教授支付非常高的薪水;第二,由于许多机器学习技术(特别是深度学习)需要大量的数据,而公司能够采集并提供这些数据,所以在企业研究“大数据”和深度学习要比在高校里容易得多;第三,公司还可以购买或开发用于深度学习的专用计算机,如GPU计算机或谷歌的Tensor处理单元(TPUs)等,这是另一件很难在高校里实现的事情。
这会带来怎样的影响呢?主要的影响是,由于从事教学和科研指导的教授数量下降,高校能够训练和培养的人工智能和机器学习领域学生的数量下降了。高校访问大数据集和使用专用计算机的通道也变得狭窄,为解决这一问题,企业和政府应当提供更多经费,来帮助高校进行数据集采集和购买专用计算机。我不知道政府如何才能解决高校人才流失问题,但它可以帮助解决数据和计算方面的问题。
除大数据和深度学习外,所有其他形式的机器学习(以及上面列出的所有挑战)研究都不难在高校实验室中开展,例如在俄勒冈州立大学的实验室里,我们正在研究异常检测、强化学习和健壮机器学习。
中国科学家(包括在中国境内外工作的)正在为机器学习和人工智能技术的发展做出巨大贡献。中国是语音识别和自然语言翻译深度学习领域的领导者。由于政府和企业对中国人工智能研究的大量投入,我期待中国研究人员能做出更多的贡献。
我认为(阻碍中国研究人员)产生更大影响力的最大障碍就是沟通。大多数计算机科学研究成果都是用英文出版的,而英语对于说普通话的人来说很难学,所以中国科学家很难(用英语)写论文或是做具有重大影响的报告。反过来也有同样的问题。中国现在是人工智能研究的主要阵营(我猜至少占25%)。西方人不懂中文,就很难了解中国的进步。我希望语言翻译技术的不断改进将有助于减少语言障碍。
和沟通有关的问题还有,中国的网络常常难以与世界其他地区的网络相连接,从而使召开电话会议或Skype会议存在困难,这就意味着中国的研究人员常常不会被纳入到国际研究项目中去。
我的第一个建议是学生应尽可能多地学习数学。数学是机器学习的核心。数学很难自学,所以我建议所有学生都在大学期间学习数学。我的第二个建议是尽可能多地阅读文献,不要只读深度学习的论文,也要阅读机器学习、人工智能和算法相关的理论。
新的学习算法源自对数学和优化问题结构的深刻理解。不要忘记其他知识分支(如统计、运营研究、信息理论、经济学、博弈论、科学哲学、神经科学、心理学等)的概念对机器学习和人工智能的发展一直非常重要。另外,团队合作经验很有价值。现在的大多数研究都是合作完成的,所以你应该练习团队合作和学习解决冲突。最后,培养你的编程和沟通技巧非常重要。
你要学习编程并掌握最新的软件工程工具,你还要能写会说:掌握英语语法和词汇还远远不够,你必须学会如何在具体的场合里,将你复杂研究成果的核心观点清晰地传达出来。