Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

赛尔推荐 | 第23期

本栏目每周将推荐若干篇由师生精心挑选的前沿论文,分周三、周五两次推送。

本次推荐了三篇关于对象级情感分析、隐式元素预测、摘要、统一模型、不一致损失的论文。

1、推荐组:SA

推荐人:丛大玮(研究方向:情感分析)

论文题目:Interactive Attention Networks for Aspect-Level Sentiment Classification

作者:Dehong Ma, Sujian Li, Xiaodong Zhang, Houfeng Wang

出处:IJCAI 2017

论文主要相关:对象级情感分析

简评:

对象级别的情感分析旨在检测对于句子中特定评价对象表达的情绪。在对象级别的情感分类任务中大多数工作对评价对象所在的上下文建模,结合评价对象形成针对评价对象的上下文表示。这篇文章认为对于评价对象的建模也同样重要,当一个评价对象中包含多个词时,可以根据上下文信息赋予其中重要的词更高的权重,比如对于评价对象“picture quality”和上下文“clear-cut”,这里“picture”比“quality”更重要,所以文章提出对评价对象和其所在的上下文的表示的交互学习模型,对评价对象和上下文分开建模,形成和彼此相关的表示。具体来说,评价对象和其上下文分别通过各自的LSTM,输出的隐层表示pooling 后对彼此隐层做attention,即交互attention,二者的LSTM隐层被赋予交互attention权重后的结果做拼接形成最后的表示,用于情感分类。论文最终验证了交互学习的有效性,并在SemEval 2014 task 4中取得了较好的效果。

论文链接:

https://arxiv.org/abs/1709.00893

2、推荐组:SP

推荐人:孔德申(研究方向:社会预测)

论文题目:Implicit Argument Prediction with Event Knowledge

作者:Pengxiang Cheng, Katrin Erk

出处:NAACL 2018

论文主要相关:隐式元素预测

简评:

当一个事件句中缺少某个事件相关的事件元素时,我们很难直接从该事件句中得知事件元素的具体内容,这种情况下我们需要从上下文中获取事件元素的相关信息(该事件元素需要在上下文中至少出现一次)。针对这个问题,本文首先提出了“事件元素完型填充任务”,该任务可以帮助我们获得大规模的训练语料,在这个任务中我们随机的删除某个事件的实体元素(该实体元素需要在文中至少出现两次),然后我们在剩余的所有实体元素中选取一个作为该空缺的答案,这里的事件是一个四元组:谓词、主语、宾语、介词宾语(若有多个介词宾语,只选择最先出现的),其中主语、宾语、介词宾语均可以进行删除操作,从而产生一条有空缺事件元素的数据。为了评价所选填充词的好坏,文章采用了“一致性”概念,即将填充后的事件进行表示并与其上下文事件表示分别进行运算,将得到的最高分数作为“一致性”得分。在计算“一致性”得分的过程中将所有事件四元组进行拼接,训练出带有“事件知识”的词向量,并引入填充实体的核心词出现次数、第一次出现位置、总提及数来编码实体与事件相关程度的信息。通过论文中的方法,在Gerber and Chai (G&C)数据集上得到了最好的隐式元素预测效果。

论文链接:

http://aclweb.org/anthology/N18-1076

3、推荐组:TG

推荐人:冯掌印(研究方向: 文本生成)

论文题目:A Unified Model for Extractive and Abstractive Summarization using Inconsistency Loss

作者:Wan-Ting Hsu, Chieh-Kai Lin1, Ming-Ying Lee1, Kerui Min2, Jing Tang2, Min Sun1

出处:ACL 2018

论文主要相关:摘要、统一模型、不一致损失

简评:

在文本摘要任务上,根据所采用的方法,摘要可分为抽取式和生成式。抽取式模型一般对句子进行选择抽取,得到的摘要具有较高的ROUGE值,但是可读性较差且不够简洁。生成式模型一般是逐词生成摘要,能得到可读性更高且较为简洁的摘要,但是在某些事实细节方面往往不够准确。为了能够综合利用抽取式和生成式的优点,论文提出了一种统一建模方式。首先利用抽取式部分对句子的重要程度打分,然后生成式部分在此基础上更新对原始文档中每个词的attention权值,之后逐词生成。抽取式和生成式方法可以作为两个独立步骤训练,也可以采取端到端的方式进行训练,分开训练时,抽取式部分直接将信息量较大的句子输出,生成式部分只接受部分原始句子作为输入;端到端训练时,抽取式方法对句子进行打分,生成式部分会在句子打分的基础上,更新对每个词的attention权值。在端到端训练时,生成式部分权值较大的词可能不在抽取式权值较大的句子里面,因此论文提出了不一致损失来约束该情况。实验结果及分析表明,不一致损失确实具有很大的作用,在CNN/Daily Mail数据集上,该统一模型不仅实现了state-of-the-art效果,且超越了lead-3的表现。

论文链接:

https://arxiv.org/pdf/1805.06266.pdf

哈工大SCIR
哈工大SCIR

哈尔滨工业大学社会计算与信息检索研究中心

入门对象级情感分析隐式元素预测摘要统一模型不一致损失
1
相关数据
权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

推荐文章
暂无评论
暂无评论~