哈工大SCIR三篇长文被AAAI-19录用

AAAI-19 (Thirty-Third AAAI Conference on Artificial Intelligence) 将于2019年1月27日至2月1日在美国夏威夷举行。AAAI是人工智能领域的顶级国际会议,CCF A类会议,每年举办一次。今年AAAI-19大会共计收到7700个有效投稿,其中7095篇论文进入到评审环节,最终有1150篇论文被大会录用,总录用率仅为16.2%,创历史新低。

哈尔滨工业大学社会计算与信息检索研究中心共有3篇长文被AAAI-19录用,下面是论文列表及介绍:

• A Neural Approach for Verb Phrase Ellipsis Resolution

作者:张伟男,张岳,刘元兴,狄东林,刘挺

动词短语省略(VPE)是一种语言现象,其中一些动词短语作为句法成分被省略并且通常由辅助动词引用。先前的工作主要集中在手动构建从辅助词、句法树等中提取的特征。然而,先前的工作并没有很好地解决特征表示的优化,连续特征的有效性和特征的自动组合。在本文中我们尝试探索神经模型对VPE消解任务(包括管道和端到端过程)的优势,并比较统计模型和神经模型之间的差异。我们使用两种神经模型(MLP和Transformer)分别进行VPE检测和消解的子任务。实验结果表明,神经模型在子任务和端到端结果方面均优于最先进的基线。

• Exploring Answer Stance Detection with Recurrent Conditional Attention

作者:袁建华,赵妍妍,秦兵,许静芳

从社区问答QA对中提取人们对问题的观点立场倾向性是一个有意思的问题。不同于以往的立场分析任务,我们这里的target不是给定的实体(entity)或者声明(claim),而是整个问题,因而更难去建模依赖问题的(target-dependent)回答句表示。为此,我们提出一种循环条件注意力结构(Recurrent Conditional Attention),在循环阅读QA对的过程中,提炼Q、A语义表示,挖掘Q-A之间的相互依赖关系,逐步推敲获得真实的观点倾向。在人工收集标注的社区问答立场倾向性数据集上(搜狗公司提供),相比四个强基线模型,我们的RCA模型在macro-f1值平均提高2.90%,在micro-f1值上平均提高2.66%。

• Gaussian Transformer: A Lightweight Approach for Natural Language Inference

作者:郭茂盛,张宇,刘挺

自然语言推理 (Natural Language Inference, NLI) 是一个活跃的研究领域,许多基于循环神经网络 (RNNs),卷积神经网络 (CNNs),self-attention 网络 (SANs) 的模型为此提出。尽管这些模型取得了不错的表现,但是基于RNNs的模型难以并行训练,基于 CNNs 的模型需要耗费大量的参数,基于 self-attention 的模型弱于捕获文本中的局部依赖。为了克服这个问题,我们向 self-attention 机制中引入高斯先验 (Gaussian prior) 来更好的建模句子的局部结构。接着,我们为NLI任务提出了一个高效的、不依赖循环或卷积的网络结构,名为 Gaussian Transformer。它由用于建模局部和全局依赖的编码模块,用于收集多步推理的高阶交互模块,以及一个参数轻量的对比模块组成。试验结果表明,我们的模型在 SNLI 和 MultiNLI 数据集上取得了当前最高的成绩,同时大大减少了参数数量和训练时间。此外,在 HardNLI 数据集上的试验表明我们的方法较少受到标注的人工痕迹 (Annotation artifacts) 影响。

同时,哈工大讯飞联合实验室(公众号:哈工大讯飞联合实验室)的一篇长文被AAAI-19录用,祝贺!

• Convolutional Spatial Attention Model for Reading Comprehension with Multiple-Choice Questions

作者:陈致鹏,崔一鸣,马文涛,王士进,胡国平

选择型的机器阅读理解需要机器阅读一个篇章并根据问题从多个候选答案中选出正确答案。本文中,我们提出一种基于卷积空间注意力的模型(Convolutional Spatial Attention,CSA)用来解决中国初高中英文阅读理解选择题。该模型可以充分的提取篇章、问题以及选项之间的互信息,然后使用互信息增强各自的向量空间表示。除此之外,为了结合不同向量空间的注意力信息,我们使用不同的卷积窗口动态的从不同的空间注意力矩阵上抽取特征。实验结果表明,CSA模型在RACE(中国初高中英文阅读理解数据)和SemEval-2018 Task11(国际语义评测比赛中的阅读理解任务)两个任务都取得了显著性能提升,证明了我们的方法的创新性和有效性。

哈工大SCIR
哈工大SCIR

哈尔滨工业大学社会计算与信息检索研究中心

理论CNNRNNQAVPE论文哈工大SCIRAAAI 2019
2
相关数据
搜狗机构

搜狗成立于2003年,是中国搜索行业挑战者,AI领域的创新者。目前搜狗月活跃用户数仅次于BAT,是中国用户规模第四大互联网公司。2004年8月,搜狗推出搜狗搜索,现已成为中国第二大搜索引擎。2006年6月,推出搜狗输入法,重新定义了中文输入,目前搜狗输入法覆盖超5亿用户,是国内第一大中文输入法。2017年11月9日,搜狗在美国纽约证券交易所正式挂牌上市,股票交易代码为“SOGO”,开盘价为13.00美元,市值超50亿美元。

http://corp.sogou.com/
刘挺人物

哈工大人工智能研究院副院长,国内NLP方向领军人物。

信息检索技术

信息检索(IR)是基于用于查询检索信息的任务。流行的信息检索模型包括布尔模型、向量空间模型、概率模型和语言模型。信息检索最典型和最常见的应用是搜索引擎。

人工智能技术

在学术研究领域,人工智能通常指能够感知周围环境并采取行动以实现最优的可能结果的智能体(intelligent agent)

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

卷积神经网络技术

卷积神经网路(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。 卷积网络是一种专门用于处理具有已知的、网格状拓扑的数据的神经网络。例如时间序列数据,它可以被认为是以一定时间间隔采样的一维网格,又如图像数据,其可以被认为是二维像素网格。

推荐文章
暂无评论
暂无评论~