EMNLP和CoNLL大会堪称自然语言处理(NLP)领域的年度盛宴。
11月3日,EMNLP-IJCNLP 2019在中国香港正式开幕。
EMNLP是由国际语言学会(ACL)下属的SIGDAT小组主办的自然语言处理领域的顶级国际会议,在计算语言学类别下影响力排名全球第二。EMNLP每年举办一次,今年与IJCNLP联合举办。
据悉,EMNLP-IJCNLP 2019共收到有效投稿2877篇,录用683篇,其中长论文465篇, 短论文218篇,录用率为23.7%。其接收的论文覆盖了对话交互系统、信息抽取、信息检索和文档分析、词法语义、语言学理论、认知建模和心理语言学、机器翻译与句子级语义学、情感分析和论点挖掘、文本挖掘和NLP应用、文本推理等自然语言处理领域众多研究方向。
EMNLP2019接收的全部论文现已公布,地址如下:
https://www.aclweb.org/anthology/events/emnlp-2019/#d19-1
与此同时,另一个颇具影响力的会议CoNLL2019 也与 EMNLP同期召开,时间为11月3日-4日。
CoNLL是由ACL下属的 SIGNLL 主办的计算自然语言学习会议,本届大会共录用论文97篇。
CoNLL2019录用论文也已全部公布,地址如下:https://www.conll.org/accepted-2019
11 月 4 日,CoNLL2019最佳论文奖与特别奖相继揭晓。
最佳论文奖
How Does Grammatical Gender Affect Noun Representations in Gender-Marking Languages?
作者:Hila Gonen, Yova Kementchedjhieva, Yoav Goldberg(巴伊兰大学,哥本哈根大学,艾伦人工智能研究所)
论文地址:https://www.aclweb.org/anthology/K19-1043.pdf
语法性别如何影响性别标记语言中的名词表征?
论文摘要:多种自然语言为无生命的名词赋予了语法形式上的性别。在这些语言中,与标记了性别的名词相关的词会发生改变,以符合这些名词的性别。我们发现这会影响无生命名词的词向量表征,使得同性别的名词之间的距离比不同性别的名词之间的距离近。而“嵌入除偏(embedding debiasing)”方法并不能消除这种性别影响。我们展示了一种可以有效消除这种影响的方法,即在训练词嵌入向量的时候,将语法上的性别标记从其上下文中去掉。无论在单语环境中还是跨语言环境中,修正语法性别带来的偏差可以改进词嵌入向量结果。我们发现尽管可以去除语法上的性别信号,但是这并不是一件容易的事,只有仔细地运用面向语言的词法分析器,才能获得好的结果。
特别奖 - 受人类语言学习和处理启发的最佳研究论文
Say Anything:Automatic Semantic Infelicity Detection in L2 English Indefinite Pronouns
作者:Ella Rabinovich, Julia Watson, Barend Beekhuizen, Suzanne Stevenson(多伦多大学计算机科学系,语言研究部)
论文地址:https://www.aclweb.org/anthology/K19-1008.pdf
说“anything”:非英语母语人士使用英语不定代词的自动不当语义检测
面向第二语言学习者错误检测的计算研究,主要针对的是初到中级学习者的明显语法异常。而我们关注的是对各种熟练级别的非英语母语人士使用不定代词的细微差别的感知。我们首先提出了语法上的理论假设,并经验证了英语学习者使用不定代词所面临的挑战。接着我们提出并评估了一种检测异常使用模式的方法,证明了深度学习结构对于解决细微语义差别相关的问题是有前景的。
最佳论文荣誉提名
Analysing Neural Language Models: Contextual Decomposition Reveals Default Reasoning in Number and Gender Assignment
Jaap Jumelet, Willem Zuidema, Dieuwke Hupkes
论文地址:https://www.aclweb.org/anthology/K19-1001.pdf
On the Limits of Learning to Actively Learn Semantic Representations
Omri Koshorek, Gabriel Stanovsky, Yichu Zhou, Vivek Srikumar, Jonathan Berant
论文地址:https://www.aclweb.org/anthology/K19-1042.pdf
特别奖-最佳研究论文荣誉提名
Using Priming to Uncover the Organization of Syntactic Representations in Neural Language Models
Grusha Prasad, Marten van Schijndel, Tal Linzen
论文地址:https://www.aclweb.org/anthology/K19-1007.pdf
Large-Scale Representation Learning from Visually Grounded Untranscribed Speech
Gabriel Ilharco, Yuan Zhang, Jason Baldridge
论文地址:https://www.aclweb.org/anthology/K19-1006.pdf
CoNLL每年还会举办系列评测,这是自然语言处理领域影响力最大的国际技术评测,有力推动了自然语言处理各项任务的发展。
在今年8月举办的CoNLL-2019国际跨框架语义分析评测中,哈工大社会计算与信息检索研究中心(HIT-SCIR)取得了第一名的好成绩,这是SCIR实验室继取得CoNLL-2018国际多语言通用依存分析评测第一名后再次取得该国际技术评测的冠军。