在ASC19超算总决赛期间,4月24日举办的“第21届HPC Connection Workshop国际超算高峰论坛”上,蔡绍棠教授发表了超算与忆阻器的演讲。虎妈是耶鲁的法学教授,能培养出这样一位女儿,想必她的父亲也不简单。事实上,她的父亲的确很厉害。
她的父亲Leon Ong Chua(中文名蔡绍棠),是伯克利的教授,他在非线性线路理论和细胞式类神经网络理论上有很大的贡献,他发明的“蔡氏线路”第一次在实际中演示了混沌现象,而且他在1971年的文章中预测了忆阻器的存在,37年后,由惠普的一个研究小组得以实现,实际造出了这一器件,他被称为“忆阻器之父”。
在今年4月21-25日于大连理工大学举行的2019 ASC世界大学生超级计算机竞赛总决赛中,Leon作为大赛评委以及国际超算高峰论坛的演讲人也受邀出席,借此机会,《赛先生》采访了Leon教授,就当下火热的深度学习、类脑计算、忆阻器的发展甚至如何教育子女,询问了他的看法。在4月25日的2019 ASC世界大学生超级计算机竞赛总决赛颁奖典礼结束后,蔡绍棠教授接受了《赛先生》的独家专访。
赛先生:今天我们谈人工智能,会认为卷积神经网络(Convolutional neural network, CNN)是一个基石,但很多研究者也在研究类脑计算,你怎么看待如此不同的两种途径,谁可以通向真正的人工智能?Chua: CNN是否代表了未来?我想还需要再看几年。现在,能看到发表出来的一些好的结果,但炒的太热了。
这些做的好的是一些简单的情形,即使是这些简单情形,依然不够实用,消耗了大量的金钱、能量和时间,学一些简单的任务就需要好几周、好几个月来学,整个过程是很昂贵和耗时的。随着对大脑认识的逐步深入,我觉得真正的人工智能才刚刚开始。现在,没有人真正知道大脑是如何工作的,没有人知道为什么深度学习有效果,它就是有效果,不像之前那样能解释原因。如果能解释的话,就能证明,但现在还没有这样的知识。
深度学习是实验上有效果,短时间内好像不太能找到原因(为什么有效果)。即使(可解释)最后得到了解决,实际中,训练模型、找到最佳的参数,也是得花很长时间才能找到答案。因为在围棋上机器战胜了人类,深度学习获得了大众关注,令人印象深刻,但也是得花很大的能量、时间去训练一个人工智能的棋手。CNN是有效果的,但不实用,这是我现阶段能说的。我想类脑计算是未来的方向。
不过,这取决于两个方面的同步发展,一是发展神经形态算法(neuromorphic algorithms),二是发展能实现这些算法的设备。因为即使你有理论,依然需要花时间(才能得到结果),但如果你有设备,就像我今天提起的忆阻器,因为我们谈的是非常快的处理,不存在计算,(就会很快)。我们今天所有人工智能做的计算,都得计算机花很长时间来解方程。
如果你用忆阻器作为一个重要部件,那就不会是解什么方程,它就是方程本身,芯片自身、设备自身,方程就是答案。首先,忆阻器非常小,如果要像脑一样处理,必须得小;第二,消耗的能量必须少,忆阻器消耗一点点能量,而且很快。今天符合这两点的(其他设备)还不存在,它们都需要用超级计算机去缓慢地解方程。