ICML 2020 热门话题与高引论文分析

作者: 学术头条

来源: AMiner

发布日期: 2020-07-19

ICML 2020 会议的热门话题包括强化学习、神经网络等,AMiner 系统统计了这些热门方向并按引用量排序了不同类别的论文。热门论文包括关于强化学习和神经网络的研究,这些论文探讨了自动化奖励函数设计、平面最小值的规范化定义以及因果推断的协变量平衡等主题。

强化学习成大热门!ICML 2020 热门话题引用量最高的论文。本届 ICML 会议已接近尾声,本届会议大家最关注的最佳论文、最佳论文提名、时间检验论文也已公布,而在未获奖的论文中有哪些被大家关注的好论文呢?AMiner ICML 顶会系统统计了本次会议论文中出现频率较多的关键字,评估了本次会议中的热门方向,并可将不同类别的论文按引用量排序。

依据 AMiner 系统,让我们来看看本次会议的热门话题与其中最受关注的论文吧。

根据对入选论文标题的关键词分析,入选前 10 的热门话题为:强化学习,神经网络,Bandit,高斯过程,图,表示,最优输运,网络,随机性,表示学习。

利用 Aminer 按主题搜索论文及各个主题下论文按引用量排序的功能,我们可以轻松找到本次会议不同主题中那些受研究者关注的热点论文。让我们来看看不同主题的热点论文有哪些吧!

在标准强化学习中,每一项新技能都需要一个手动设计的奖励函数,这需要大量的人工努力和工程设计。自我监督的目标设定有可能使这个过程自动化,使代理能够提出自己的目标并获得实现这些目标的技能。然而,这类方法通常依赖于手动设计的目标分布,或启发式,以迫使代理探索广泛的状态。作者提出了一个正式的探索目标,以达到目标的政策,最大限度的态覆盖。

平面最小值的概念在深度学习模型的泛化研究中起着关键作用。然而,现有的平面度定义对参数的重定标敏感。这一问题表明,先前对平坦度的定义可能不是一个很好的泛化度量,因为泛化对于这种重定标是不变的。本文从 PAC-Bayesian 的观点出发,详细讨论了关于平坦极小的讨论,并引入了规范化平坦极小的概念,它不存在已知的尺度依赖性问题。

当丰富的协变量和复杂的关系需要使用神经网络进行灵活的建模时,作者研究从观测数据进行因果推断的最优协变量平衡。标准方法,如倾向权重和匹配/平衡,在这种情况下失败是由于错误的倾向网络和不适当的协变量表示。作者提出了一种新的方法,基于一个加权和一个鉴别器网络的对抗性训练,有效地解决了这一方法上的差距。

ICML 2020 已经接近尾声,想了解关于本次会议的更多信息可进入 AMiner ICML 顶会系统查看。AMiner 系统提供论文收录下载,热点统计,最佳论文解读,论文概要,论文精读,会议论文 ppt 讲解视频,华人作者、华人一作学生统计,按主题搜论文,按作者搜论文等一系列方便功能,是参会者与研究人员及对会议感兴趣的 AI 从业者及学生的便利工具。

UUID: 37b4494d-6235-462c-8203-f4b46357f730

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2020年-下/2020-07-19_强化学习成大热门!ICML2020热门话题引用量最高的论文.txt

是否为广告: 否

处理费用: 0.0051 元