2021年7月10日,WAIC(2021世界人工智能大会)“图神经网络与认知智能前沿技术论坛”在上海世博中心成功举办。
清华大学计算机科学与技术系教授李涓子,复旦大学计算机科学技术学院教授黄萱菁,清华大学计算机科学与技术系副教授许斌,阿里巴巴达摩院资深算法专家杨红霞,浙江大学副教授、人工智能系系主任杨洋,清华大学电子工程系助理研究员戴国浩等学术大咖和产业大拿,共同探索“图神经网络与认知智能”的技术现状与产业前景。AI TIME负责人何芸主持了本次论坛。
本次论坛以“图神经网络”“大规模预训练模型”“认知智能”等前沿方向为主题,不仅展示学术界对相关技术的最新研究工作,还剖析了图神经网络、认知智能等领域的理论基础、技术路线、产业落地、发展前景等。在AI Debeat环节,线下、线上的观众还和各位大咖一同进行互动、思辨。
顺应第三代AI算法的潮流,未来图神经网络研究的重要趋势将是面向推理和认知。李涓子教授首先做了题为《知识图谱与认知推理》的主题报告。李涓子指出,认知是人获取和应用知识的过程,知识图谱是人对客观世界认知的表示。而人工智能就是研究和设计智能系统,让它像人一样感知推理思考并且做出规划、决策。知识的表示和推理在人工智能里面占了非常重要的地位。
“在未来,知识驱动和数据驱动相结合,将是机器智能非常重要的理论研究,我们以复杂问答为基础,提出了基于图结构的可解释认知推理框架。框架将提问对象表示为图结构,将复杂问题解析为基本函数的组合程序以表示推理过程,在图结构上使用注意力机制进行模块推理,使得每个模块的输出可以被人类所理解。未来希望进一步构建可扩展的通用推理函数库,并研究多模态认知推理和具有增量学习能力的推理。”
接下来,许斌副教授介绍了面向大规模知识图谱的预训练模型及其应用。许斌副教授指出,我们目前已经进入第三代人工智能,即认知智能阶段。主要思路就是利用数据统计与知识推理融合的计算。
2020年OPEN AI发布一个巨大的预训练模型GPT3,参数达到1750亿;2021年1月,谷歌发布了新的预训练模型,参数达到1.6万亿;而在这方面,中国的同行不甘示弱,2021年6月,北京智源研究院发布悟道中文预训练模型,参数达到1.75万亿。
紧接着,阿里巴巴资深算法专家杨红霞介绍了《超大规模多模态预训练模型M6》,浙江大学副教授杨洋做了《图神经网络的鲁棒性学习》的报告。除了各位知名学者和产业专家就“图神经网络”“大规模预训练模型”“认知智能”等前沿方向展示了最新研究工作,更为精彩的是本次论坛的几位嘉宾学者还会针对该领域前沿技术方向在理论、技术、产业落地、展望等方面展开了思辨。
对于图神经网络会给哪些领域带来变革性的提升,黄萱菁表示,图神经网络这几年的发展大家有目共睹,以前研究不是很多,是因为图太复杂,对图进行信息处理超出了当时的工具能力,这几年有了神经网络特别是图神经网络的快速发展,对于NLP中间分析、产生图结构提供了很有利的工具,图神经网络、图结构对NLP带来了突破性的应用。
跳出传统计算机科学的范畴来看,包括药物、生化,不管知识图谱、图结构、图神经网络都能将为这些领域带来突破。
对于最近大火的大规模预训练模型,是否会给图神经网络带来新的价值,杨红霞认为,今天的预训练模型处在所谓大力出奇迹阶段。
黄萱菁则表示,从NLP角度来说,图神经网络是手段,图结构是目标,预训练模型也是手段而不是目标,所以这个角度来说,预训练模型的大力出奇迹,可能是系统降维打击,预训练里有很多能力没有很好的挖掘,比如虽然可以把预训练模型参数从一千亿到万亿级,但我们只需挖掘更小规模的预训练模型,就能够捕捉很多的信息。
接下来各位专家学者讨论了图神经网络存在的一些问题,包括不可解释、鲁棒性差、缺乏因果关系,以及如何对未来更大规模的图神经网络提供算力支持等。戴国浩表示,我们现在所处理的图数据有着非常明显的特征,是非结构化的、稀疏的;但是,现有的硬件架构往往是结构化的,面向稠密数据结构做设计和优化的。因此,数据特征和硬件特征之间存在巨大鸿沟,我们的数据如何高效地在面向稠密数据的结构化的硬件上做处理?
这是我们面临的很大的问题。一方面,我们需要自顶向下研究数据在硬件上的高效映射方法;另一方面,自底向上面向稀疏数据设计新的硬件架构也是一个可行方向。
杨洋则认为,这些问题中最重要的是不可解释性。
“因为可解释性的本质,就是把深度学习的模型从非常高维的空间映射到人类认知比较低维的空间上,我觉得非常难,我个人的判断,可解释性的需求应该会不断下降,因为随着AI在各个领域有越来越多的成果出来,我相信大家会越来越多的无条件的支持、信任它。”未来大家对于AI的接受能力会越来越高,对于可解释性的需求会越来越低,同时模型做得越来越复杂,我们真正做到的可解释性会越来越难。
黄萱菁则认为,对于可解释的需求会越来越高,因为AI整个领域从默默无闻在角落偷偷奋斗,现在到了聚光灯下,最早的时候只要把模型功能构建讲清楚,原理说清楚,给业内人做解释,现在可解释的范畴就变了,我们需要向公众做解释,比如医生是系统的用户,不能说服医生的话,他就不和你配合,再比如自动驾驶,不能把过程解释清楚,怎样让监管层批准?因此整个可解释的要求越来越高。
杨红霞补充道,从业界角度来说,这四个点当中大家比较关心鲁棒性和大算力。算力越好对我们越好,同样的模型我肯定喜欢1分钟不喜欢一个小时,鲁棒性也一样。对于如何将图神经网络做大做深来适应产业界更复杂的场景,杨红霞认为,现在比较核心的场景还是搜索推荐和广告,如果希望GNN业界有更大影响力,肯定希望在这几个大流量场景下做突破。
黄萱菁则认为,我们不是需要把图神经网络做大做深适应产业界更复杂的场景,而是产业界出现更复杂的场景,怎样的模型能够实现它的目标,这是手段问题,而不是一定要优化图神经网络让它做得怎么样。戴国浩表示,我相信未来如何将图神经网络在产业界做更高效的落地,包括是否要有专用的架构,还是考虑通用性和算法的普世性的角度开展未来一系列的研究,可能是可行的研究方向。
对于本次论坛的主题“图神经网络是否是实现认知智能的关键”这一问题,各位专家学者也发表了自己的看法。黄萱菁指出,图神经网络和认知智能不是等价关系,“我认为图神经网络是实现认知智能比较好的手段,如果可以充分发挥图神经网络的推理能力,比如我们用更好的图表示,更好的消息传递机制,我们从数据中间可以推理出来更加复杂的预测结果,提升我们对事物的理解能力。
”许斌表示,“人工智能的目的,是能帮助整个人类生活变得更加美好,认知智能只是对于人工智能认知的阶段,图神经网络只是寻找通向最终强人工智能道路上很小的阶段,研究人员目前对于人的大脑脑科学的研究很多东西都未知,如果伴随对于大脑的结构和工作原理更加全面的调查,我相信会对于我们未来实现真正的人工智能有很大的帮助,我们还在路上,但是未来是美好的。”
关于WAIC,2018年,WAIC(世界人工智能大会)在上海首次亮相,助力上海加快建设人工智能创新策源、应用示范、制度供给和人才聚集的“上海高地”,为中国乃至世界人工智能发展贡献力量。2021年7月7日至10日,第四届WAIC将继续亮相上海。
秉持“智联世界”的理念,围绕“智联世界 众智成城”的主题,坚持“高端化、国际化、专业化、市场化、智能化”的办会方针,策划多种形式的活动,搭建国际合作交流平台,汇聚顶级科学家、企业家、政府官员、专家学者、国际组织、投资人、初创团队等。努力促进全球人工智能创新思想、技术、应用、人才和资本的集聚和交流,推动全球科技创新协同,助力打造人工智能世界级产业集群。