本栏目每周将推荐若干篇由师生精心挑选的前沿论文,分周三、周五两次推送。
本次推荐了三篇关于对象级情感分析、隐式元素预测、摘要、统一模型、不一致损失的论文。
1、推荐组:SA
推荐人:丛大玮(研究方向:情感分析)
论文题目:Interactive Attention Networks for Aspect-Level Sentiment Classification
作者:Dehong Ma, Sujian Li, Xiaodong Zhang, Houfeng Wang
出处:IJCAI 2017
论文主要相关:对象级情感分析
简评:
对象级别的情感分析旨在检测对于句子中特定评价对象表达的情绪。在对象级别的情感分类任务中大多数工作对评价对象所在的上下文建模,结合评价对象形成针对评价对象的上下文表示。这篇文章认为对于评价对象的建模也同样重要,当一个评价对象中包含多个词时,可以根据上下文信息赋予其中重要的词更高的权重,比如对于评价对象“picture quality”和上下文“clear-cut”,这里“picture”比“quality”更重要,所以文章提出对评价对象和其所在的上下文的表示的交互学习模型,对评价对象和上下文分开建模,形成和彼此相关的表示。具体来说,评价对象和其上下文分别通过各自的LSTM,输出的隐层表示pooling 后对彼此隐层做attention,即交互attention,二者的LSTM隐层被赋予交互attention权重后的结果做拼接形成最后的表示,用于情感分类。论文最终验证了交互学习的有效性,并在SemEval 2014 task 4中取得了较好的效果。
论文链接:
https://arxiv.org/abs/1709.00893
2、推荐组:SP
推荐人:孔德申(研究方向:社会预测)
论文题目:Implicit Argument Prediction with Event Knowledge
作者:Pengxiang Cheng, Katrin Erk
出处:NAACL 2018
论文主要相关:隐式元素预测
简评:
当一个事件句中缺少某个事件相关的事件元素时,我们很难直接从该事件句中得知事件元素的具体内容,这种情况下我们需要从上下文中获取事件元素的相关信息(该事件元素需要在上下文中至少出现一次)。针对这个问题,本文首先提出了“事件元素完型填充任务”,该任务可以帮助我们获得大规模的训练语料,在这个任务中我们随机的删除某个事件的实体元素(该实体元素需要在文中至少出现两次),然后我们在剩余的所有实体元素中选取一个作为该空缺的答案,这里的事件是一个四元组:谓词、主语、宾语、介词宾语(若有多个介词宾语,只选择最先出现的),其中主语、宾语、介词宾语均可以进行删除操作,从而产生一条有空缺事件元素的数据。为了评价所选填充词的好坏,文章采用了“一致性”概念,即将填充后的事件进行表示并与其上下文事件表示分别进行运算,将得到的最高分数作为“一致性”得分。在计算“一致性”得分的过程中将所有事件四元组进行拼接,训练出带有“事件知识”的词向量,并引入填充实体的核心词出现次数、第一次出现位置、总提及数来编码实体与事件相关程度的信息。通过论文中的方法,在Gerber and Chai (G&C)数据集上得到了最好的隐式元素预测效果。
论文链接:
http://aclweb.org/anthology/N18-1076
3、推荐组:TG
推荐人:冯掌印(研究方向: 文本生成)
论文题目:A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss
作者:Wan-Ting Hsu, Chieh-Kai Lin1, Ming-Ying Lee1, Kerui Min2, Jing Tang2, Min Sun1
出处:ACL 2018
论文主要相关:摘要、统一模型、不一致损失
简评:
在文本摘要任务上,根据所采用的方法,摘要可分为抽取式和生成式。抽取式模型一般对句子进行选择抽取,得到的摘要具有较高的ROUGE值,但是可读性较差且不够简洁。生成式模型一般是逐词生成摘要,能得到可读性更高且较为简洁的摘要,但是在某些事实细节方面往往不够准确。为了能够综合利用抽取式和生成式的优点,论文提出了一种统一建模方式。首先利用抽取式部分对句子的重要程度打分,然后生成式部分在此基础上更新对原始文档中每个词的attention权值,之后逐词生成。抽取式和生成式方法可以作为两个独立步骤训练,也可以采取端到端的方式进行训练,分开训练时,抽取式部分直接将信息量较大的句子输出,生成式部分只接受部分原始句子作为输入;端到端训练时,抽取式方法对句子进行打分,生成式部分会在句子打分的基础上,更新对每个词的attention权值。在端到端训练时,生成式部分权值较大的词可能不在抽取式权值较大的句子里面,因此论文提出了不一致损失来约束该情况。实验结果及分析表明,不一致损失确实具有很大的作用,在CNN/Daily Mail数据集上,该统一模型不仅实现了state-of-the-art效果,且超越了lead-3的表现。
论文链接:
https://arxiv.org/pdf/1805.06266.pdf