上世纪80年代末,还在加拿大攻读硕士的尤舒亚·本吉奥被一个当时并不怎么流行的想法迷住了。那时,有少数从事人工智能研究的计算机科学家试图研发这样一种软件,这种软件可以大致模仿神经元网络在大脑中处理数据的方式,虽然当时并没有证据表明这是一种行得通的想法。
20多年后,科技行业也后知后觉地爱上了这个想法。近年来,人工智能领域的长足进步使得自动驾驶汽车等项目能达到几乎与人类相差无几的智能程度,而神经网络就是人工智能蓬勃发展的幕后推手。
现在,55岁的本吉奥已成为了蒙特利尔大学的一名教授,就在昨天,他与71岁的杰弗里·欣顿和58岁的杨立昆,共同获得了计算机科学的最高奖项——ACM图灵奖。他们三人的探索之旅仿佛是一则关于勇气的寓言。在远离追捧与聚光灯的地方,他们潜心研究了几十年,把一个不被看好的、被边缘化的想法,变成了计算机科学中最热门的想法。现如今,他们所倡导的技术已经成为了每家大型科技公司未来战略的核心。
此次将图灵奖授予这三位深度学习的教父,不仅是对他们工作的肯定,更表明了机器学习已经成为了计算机科学中的一个核心领域。这个学科有一个悠久的传统,那就是重视问题的解决方案的数学证明。但机器学习算法会以一种更为混乱的方式完成任务,它会跟踪数据的统计轨迹,来找到在实际中行之有效的方法,即使我们并不清楚具体是如何做到的。
神经网络是人工智能最古老的方法之一,当这个领域在20世纪50年代末刚起步时就已经建立起来了。研究人员将神经科学家创造的神经元的简单模型改造成数学网络,这种数学网络可以通过让一系列人工的“神经元”对数据进行过滤,来学习如何对数据进行分类。
早期成功的例子包括占据整个房间的感知机马克1号,它能学习如何分辨屏幕上的形状。但当时还不清楚要如何训练具有多层神经元的大型网络,让这项技术超越模拟的小型任务。欣顿提出的解决方案是训练深度网络。1986年,他与他人共同发表了一篇题为Learning Internal Representations by Error Propagation的开创性论文,提出了全新的反向传播算法。
杨立昆的贡献包括发展了卷积神经网络,上世纪80年代末,他是第一个用手写数字图像训练卷积神经网络系统的人。如今,卷积神经网络已成为计算机视觉、语音识别、语音合成、图像合成和自然语言处理等领域的一个行业标准。它们在诸多领域均具有广泛应用,例如自动驾驶、医学图像分析、声控助手和信息过滤等等。
本吉奥开创了将深度学习应用于序列(比如语音和理解文本)的方法。但直到本世纪初,在研究人员发现如何利用图形处理器的能力之后,深度学习才触及到更广泛的世界。一个关键的时刻出现在了2012年,当时,欣顿与他的两名学生一起利用两种算法对卷积神经网络进行了改进。在著名的ImageNet比赛中,欣顿和他的学生出人意料地获得了冠军。
尽管深度学习已经在实践中取得了诸多成功,但它仍然有许多无法做到的事。神经网络的概念受到的是人类大脑的启发,但它与大脑并没有太多的相似之处。深度学习赋予计算机的智能让它可以在一些简单的任务上表现出众,例如玩某个特定的游戏,识别某些特定的声音等,但它不像人类智能那样具有适应性和通用性。
三位获奖者称,他们不知道要如何解决余下的这些挑战。他们建议,任何希望在人工智能领域取得下一个突进突破的人,都应效仿他们过去的做法——无视主流想法的意愿。本吉奥说:“他们不应该随波逐流,现在深度学习就是这股洪流。”