日前,ICLR(国际学习表征会议)组委会公布了今年的论文接收结果。今年,ICLR共收到了2997篇论文投稿,相比去年的2594篇论文投稿,增加了15.5%。其中860篇论文被接收,接受率为28.7%,这些论文有53篇分布在Oral,114篇分布在Spotlight以及693篇将会用Poster展示。ICLR由Lecun,Hinton和Bengio三位神经网络的元老联手发起。
近年来随着深度学习在工程实践中的成功,ICLR会议也在短短的几年中发展成为了神经网络的顶会。在ICLR论文结果公布之际,Lecun发推特感慨:“ICLR的h5指数为203,在所有科学出版物中排名第17,领先于NeurIPS、ICCV、ICML。在过去五年中有203篇论文获得了超过203个引用,这对于一个从2013年才开始的会议来说,进步神速”。
在ICLR 2021的论文rebuttal阶段结束的时候,Criteo AI Lab机器学习研究科学家Sergey Ivanov从ICLR 2021 OpenReview网页抓取了本次大会的论文数据,并做了可视化呈现,统计了论文主题、评审情况等信息。作者先统计了提交论文中出现频率排名前50的关键词,与往年一样,深度学习、强化学习、表征学习、图神经网络都是非常热门的话题。
深度学习提交数量接近250篇。但与去年会议情况相比,卷积神经网络的热度下降了不少,元学习、表征学习、图神经网络等领域的热度也在稳步上升。清晰的领域分布以及关键词出现次数,如下词云图所示:此外,作者还统计了论文得分情况,在这所有论文当中,最高的单项评审得分是9分,然而没有任何一篇论文达到10分。所有论文的平均分数为5.16(中位数为5.25)。
如果论文接收率为20%,那么论文平均分数要达到6分以上才能被接收。但真实的录取率接近30%,相比本届ICLR仁慈了不少。此外,Sergey Ivanov还做了一张图,清晰展示了什么样的论文能够得到更高的评分,结果是,论文中有“标准化流(normalizing flows)”、“深度生成模型”。
得分最高的一篇论文是:“How Neural Networks Extrapolate: From Feedforward to Graph Neural Networks”,虽然标题中并未出现“标准化流(normalizing flows)”和“深度生成模型”等关键词,但仍然得到了评委的青睐。
这篇论文的平均得分达到了8.25,全部得分为[8, 9, 9, 7],根据AMiner论文主页可知,其第一作者来自MIT,研究内容是:研究通过梯度下降训练的神经网络是如何外推(Extrapolate),即它们在训练的概率分布之外学到了什么。想与其他ICLR2021参会者们交流?第一时间掌握ICLR2021前沿动态?请添加“小脉”微信,留言“ICLR2021加群”。
阅读原文,直达“ICLR2021”会议专题系统,了解更多会议论文。