AI顶会论文“趋势”:对新方法的过度关注,与现实问题的脱节

作者: 蒋宝尚

来源: AI科技评论

发布日期: 2020-09-07

马里兰大学的研究员Hannah Kerner在《MIT科技评论》上分享了她在NeurIPS的投稿经历,指出当前机器学习社区对新方法的过度关注,导致忽视了现实世界的问题。她通过引用多篇论文和报告,论证了这种趋势对AI社区发展的弊大于利。

近日,马里兰大学的研究员Hannah Kerner在《MIT科技评论》上分享了她最近在NeurIPS的投稿经历:“作者为原创的、具有强烈动机的问题提供了一个解决方案,但这个解决方案只是一个应用程序,所以,对于机器学习社区来说,该工作带来的意义有限。” Hannah Kerner通过这句评审意见,窥探出当前机器学习社区的通病:对新方法的过度关注,导致忽视了真正重要的东西—现实世界的问题。

在这篇《MIT科技评论》文章中,Hannah Kerner直接抛出了一个问题:如果用机器学习解决实际应用问题带来的意义有限,那么我们又应该实现什么目标呢?Kerner表示,虽然许多“应用向”论文中提出了新的概念和影响广泛的结论。但是,仅仅是“application”一词,评审员就会带有些许“歧视”,导致这类研究在AI顶级会议上被边缘化。

基于这个问题,作者引经据典,论证了这么一个事实:对新方法的过度关注,与现实问题的脱节,方法小幅改进论文的泛滥,其实对AI社区发展弊大于利。

具体而言,作者先借用斯坦福大学「人工智能百年研究」的首份报告:《2030年的人工智能与生活》对人工智能的目标下了定义;随后,用2012年经典论文《Machine Learning that Matters》论证机器学习社区与现实的区别越来越大;然后,用一系列事实说明了“指标应用错误”的深度学习现状;最后,通过分析机器学习领域的基准数据集与现实完全脱节的现状,论证弊大于利的事实。

整篇文章逻辑清晰,论述合理,尤其是2012年经典论文《Machine Learning that Matters》抛出的问题,直到现在还能够引人深思。在《2030年的人工智能与生活》报告中提到:人工智能是致力于让机器变得智能的学科,而智能就是使实体在其环境中有远见地、适当地实现功能性的能力。人工智能开发人员正在改进、推广和扩大从当下的智能手机中所建立起来的智能。

事实上人工智能领域是一个不断努力推动机器智能向前发展的过程。而当前,在机器学习领域,“向前发展”往往意味着新算法和新程序,对于深度学习来说,则意味着一个新的网络架构。但是,这种度量方法可能带来的是:简单的增量提升的论文、机器学习学术研究中的奇怪趋势,以及学者争相刷榜。

其中,「简单的增量提升的论文」的论证来自Yoshua Bengio个人博客中的反思文章《Time to rethink the publication process in machine learning》,在文章中Bengio提出:当前,机器学习领域的研究几乎完全进入了“会议发表”模式,实际上在计算机科学领域,这种模式已经非常常见。

会议论文基本上没有像传统期刊论文那样clean up的机会,也很少像传统期刊论文那样,能在多次的修订之后提升内容质量。所以说,表面上看,我们的生产力更高了,但是这种迫于压力的“生产力提高”对论文质量和内容深度造成了破坏。许多可能包含错误、不够严谨或者只是做了简单的增量提升的论文都赶在Deadline之前提交了上去。

「机器学习学术研究中的奇怪趋势」的论证来自,ICML 2018开幕之前,卡耐基梅隆大学的助理教授Zachary C. Lipton与斯坦福大学博士Jacob Steinhardt共同发表的一篇名为《Troubling Trends in Machine Learning Scholarship》的文章中,表述的机器学习学术研究中看到的四项奇怪的趋势:无法在解释和猜测之间做出明确的区分;当实证实验中得到了改进时,无法确认改进的真正来源,比如过于强调性能提升来源于神经网络架构的非必须的改动,而实际上性能提升是来源于充分的超参数调试;数学性:使用了很多数学概念和公式只为了混淆概念或者看起来高大上,而不是真的为了做出明确的表达,比如会混淆技术性和非技术性的概念;语言词汇的滥用,比如用一些时髦的、内涵口语化的词汇,或者给已有的技术词汇增加额外的含义。

「学者争相刷榜的论证」来自于MIT科技评论文章《The field of natural language processing is chasing the wrong goal》,文章中提到的现象:自然语言处理领域正在为了比SOTA提升一两个点而努力。

《Machine Learning that Matters》这篇论文来自于ICML 2012,作者在文中指出了目前机器学习研究太过于注重测试数据,如UCI等,而忽略了数据的实际应用领域;同时,目前使用的性能评价指标像AUC、ROC曲线,完全忽略了数据本身的应用背景,提供的是一个数值上的对比,很难保证这个数值在实际应用中有任何意义。

例如在植物学领域,80%的准确度也许是一个很不错的结果了,但是即使有99%的准确度显示某类蘑菇是无毒的,我们或许也不敢吃这类蘑菇。性能评价应该结合具体的应用背景才能有其实际的价值。

总体而言有以下几点:1、特别关注标准数据集,不强调结果在现实世界中的作用和意义,也不强调培养年轻研究者formulate and define features的能力,使年轻研究者无法独立处理新的课题。

2、使用抽象的标准评价研究成果,如准确率,而忽略了问题本身特殊的细节,常常出现跨领域的数值比较。3、在数据集上运行机器学习算法是很容易的,但是“发现一个机器学习可以提供解决方法、决定应该收集哪些数据、提取或抽取相关特征、选择一个合适的学习算法、选择一个评价方法、对实验结果进行专业的解释、发表成果并劝导人们采用你的方法解决问题并最终有效果”才是有意义的。

虽然很困难,但是其中的每一个步骤都是对机器学习之外的世界产生影响而必须的工作。

基于以上观察,在文章中,Kerner表示,当前机器学习模型是根据一些大型、精选的数据集进行衡量,这些数据集往往没有噪音且定义、数据标签明确。所以,深度学习在“世界基本稳定”假设下,往往能很好的解决一些问题。但是在现实世界中,这些数据标签类别会随着时间的推移,或者地理和文化背景变化而变化。

而恰恰应用型机器学习研究人员并没有努力开发新的方法解决现实世界数据的困难,而是一直在创建自己的基准数据集。这些努力的目标,其实都是为了将现实的问题纳入其他机器学习项目的衡量标准中,但是特定领域的数据集在描述真实场景方面可能并不比现有的数据集好,因此这种趋势带来的结果可能弊大于利。

UUID: 202c10c4-9756-4a64-899f-769b771e2c52

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2020年-下/2020-09-07_AI顶会论文“趋势”:对新方法的过度关注,与现实问题的脱节.txt

是否为广告: 否

处理费用: 0.0055 元