你们的会议百事通又来啦!今天我们来唠唠将于11月16日至20日举办的EMNLP(Conference on Empirical Methods in Natural Language Processing)会议。首先,啥也不说,扫码吧!添加“小脉”微信,留言“EMNLP2020加群”。与其他EMNLP2020参会者们交流,第一时间掌握EMNLP2020前沿动态。想想都激动!有木有!
Aminer将实时更新、追踪报道EMNLP2020的相关内容。敬请关注!https://aminer.cn/conf/emnlp2020/papersEMNLP乃何方神圣也?EMNLP是由国际语言学会(ACL)下属的SIGDAT小组主办的自然语言处理领域的顶级国际会议,每年举办一次。今年,EMNLP共收到投稿3114篇,录用754篇,录用率为24.82%。
此外,因为高质量的论文超出了EMNLP会议本身所能容纳的范围,今年EMNLP新增了Findings这一子刊,其将接纳那些未被主会录用但是被程序委员会评价为值得出版的文章,此次会议共接收Findings论文520篇。
小编通过对AMiner平台中EMNLP 2015-2019这五年来收录论文数据的挖掘,从词云可以看出,EMNLP的关键词主要集中在Neural Machine Translation、Word Embeddings、Entity Recognition、Machine Translation等方向。
小编又通过对2015-2019这五年来接收论文中所有学者信息的提取,分析了这些学者的性别比例、国籍分布与语言分布情况。可以看出,EMNLP的投稿学者以男性为主,占比80.84%。从学者分布情况来看,来自美国和中国的学者一骑绝尘,分别占比36.94%和20.47%。在过去五年中,EMNLP又有哪些高引论文呢?
TOP 1: Effective Approaches to Attention-based Neural Machine Translation作者:Thang Luong, Hieu Pham, Christopher D. Manning被引用:3968此篇论文聚焦于神经机器翻译任务使用的注意力机制,提出了两种注意力方法:一为全局的注意力机制(global attention),其将attention作用于全部输入序列;二为局部的注意力机制(local attention),其每个时间步将attention作用于输入序列的不同子集。
两种方法相结合可以从不同角度完成源语言特征向量的映射。
TOP 2: A Neural Attention Model for Abstractive Sentence Summarization作者:Alexander M. Rush, Sumit Chopra, Jason Weston被引用:1602此篇论文对生成式自动摘要的实现靠的是一个完全数据驱动的、将神经语言模型与编码器相结合的生成式摘要系统,主要使用Attention+LM构建摘要提取模型。
TOP 3: SQuAD: 100, 000+ Questions for Machine Comprehension of Text作者:Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, Percy Liang被引用:1569SQuAD是一个用于机器阅读理解任务的数据集,有超过100,000个根据Wikipedia上提出的问题,问题的答案根据提出问题的相关文章来截取。
在过去五年中,EMNLP又有哪些高引作者呢?来,一起膜拜大神!
排名姓名文章数引用量1Thang Luong682332Christopher D. Manning1060763Percy Liang1028134Alexander M. Rush1426865Jason Weston921696Dan Jurafsky1119327Pranav Rajpurkar118538Jian Zhang118539Jiwei Li6165410Sumit Chopra11602引用量排名第一的Minh-Thang Luong于2016年在斯坦福大学获得计算机博士学位,现于Google Brain担任Research Scientist。
斯坦福大学计算机与语言学教授Christopher Manning引用量排名第二。他是将深度学习应用于自然语言处理领域的领军者,其研究专注于利用机器学习方法处理计算语言学问题,以使计算机能够智能处理、理解并生成人类语言。引用量排名第三的Percy Liang现为斯坦福大学计算机系副教授、斯坦福人工智能实验室成员,主要研究方向为自然语言处理(对话系统,语义分析等方向)及机器学习理论。
想更多关于高引学者的信息,请移步EMNLP会议主页:https://www.aminer.cn/conference/5eeb1307b5261c744f15bda0?conf=emnlp2020点击阅读原文,查看更多精彩!喜欢本篇内容,请分享、点赞、在看阅读原文