Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

ACL 2017论文研讨会:聚焦自然语言处理领域的新技术

就在上周,微软亚洲研究院举办了“ACL 2017论文研讨会”,旨在促进自然语言处理相关研究者之间的交流,探讨自然语言处理领域的新技术。微软亚洲研究院已被ACL2017大会录用论文的作者在研讨会上分别就各自的论文内容进行了分享。微软亚洲研究院副院长、ACL候任主席周明及约40位相关领域的微软员工和实习生参加了此次活动,就分享论文的问题、算法、实验等方面进行了深入的交流、讨论。

ACL大会(Annual Meeting of the Association for ComputationalLinguistics)是自然语言处理领域的顶级国际会议,被中国计算机学会推荐国际学术会议列表认定为A类国际会议,会议内容涵盖语言分析、机器翻译、信息抽取、自动问答等众多研究领域。长期以来,微软研究院在ACL长文论文的发表总数位居世界第一。

今年的第 55 届ACL大会将于本周末(7月30 日至8月4 日)在加拿大温哥华举行。本届会议共收到1419篇投稿(包括829篇长文和590篇短文),录用长文195篇、短文149篇,长文录用率为23.5%。其中,微软亚洲研究院共有6篇长文,及一篇题为 “SuperAgent: A Customer Service Chatbot for E-commerce Websites” 的demo文章发表。

较高的投稿量反映了自然语言处理领域在人工智能浪潮下的火热。据统计,在被录用的长文论文中,有79篇论文的第一作者为华人,约占被录用长文总数的40%,充分表明了华人的自然语言处理研究走在了世界的前沿,并在不断地向前进步。

在ACL 2017大会即将拉开序幕的前夕,我们先提前为各位小伙伴们热热身,向大家介绍一下此次“ACL2017论文研讨会”所分享论文的亮点。更多详细内容,赶紧戳文中下载链接学起来!

论文题目

Chunk-based Decoder for Neural Machine Translation 作者Shonosuke Ishiwatari, Jingtao Yao, Shujie Liu, Mu Li, Ming Zhou, Naoki Yoshinaga, Masaru Kitsuregawa, Weijia Jia汇报人刘树杰

论文摘要

在机器翻译中使用组块信息能够更容易的对组块内的词语和组块与组块之间的关系进行建模,因此在统计机器翻译中得到了广泛的使用。该论文的科研人员将组块的信息应用到神经机器翻译中,从而更容易的解决了远距离的依赖问题。他们提出的基于组块的神经机器翻译模型,包含了一个组块级别的解码器和词级别的解码器。组块级别的解码器负责对全局(组块间)的依赖进行建模,而词级别的解码器则对局部(组块内)的依赖进行建模。 在英日翻译任务(WAT’16)上的实验显示,基于组块的神经机器翻译解码算法能够显著的提高翻译性能。

汇报人:刘树杰

论文题目

Sequence-to-Dependency Neural Machine Translation作者Shuangzhi Wu, Dongdong Zhang, Nan Yang, Mu Li,Ming Zhou汇报人吴双志

论文摘要

现有的神经网络机器翻译系统大多以序列的形式生成目标语言,忽略了目标语言的句法知识。通常来说,句法知识对句子的构成有重要的指导作用。受目标语言句法知识在短语翻译模型中成功应用的启发,本文提出了一种序列到依存的神经网络机器翻译模型。该模型能够在翻译源语言的同时生成目标语言的依存句法结构,进一步利用已有的句法结构指导后续翻译的生成,从而做到翻译的同时兼顾语法结构。实验表明本文提出的方法的性能在中英翻译和日英翻译任务上都高于传统神经网络机器翻译。

汇报人:吴双志

论文题目

Active Sentiment Domain Adaptation作者Fangzhao Wu, Yongfeng Huang, Jun Yan汇报人吴方照

论文摘要

情感分类是一个领域依赖的任务。不同的领域拥有不同的情感表达,因此一个领域训练得到的情感分类器在另一个领域往往效果不佳。由于网络文本涉及大量的领域,因此很难为每一个领域去标注足够多的样本来训练领域特定情感分类器。为此,该论文的研究人员提出了一个主动情感领域迁移的方法来解决该问题。他们的方法尝试基于主动学习策略选取少量有信息量的目标领域的有标注样本,从目标领域大量的无标注样本中挖掘词语间的领域特定情感关系,并通过结合以上两种信息将情感词典中的通用情感信息迁移到目标领域。在基准数据集上的实验表明,该方法能够在少量有标注样本的情况下为目标领域训练准确的情感分类器。

汇报人:吴方照

论文题目

Sequential Matching Network: A New Architecture for Multi-turn Response Selection in Retrieval-based Chatbots作者Yu Wu, Wei Wu, Chen Xing, Ming Zhou, Zhoujun Li
汇报人武威

论文摘要

聊天机器人的一个很重要的问题是如何在选择回复的时候考虑上下文。聊天上下文往往呈现层次结构并且有很多冗余信息,因此如何同时对聊天上下文的结构建模并且准确把握上下文中的要点成为了能否找到合适回复的关键。在这篇文章中,研究员们提出了一个序列匹配网。该网络通过二维卷积神经网和循环神经网的耦合可以很好地对上下文建模并且抓住上下文中的关键点。在大规模标准数据集上,该模型对已有模型有非常大的提升,并且有很好的解释性。另外,为了弥补学术界大规模标注数据的缺失,该文章还贡献出了一个标注数据集。链接https://arxiv.org/abs/1612.01627

汇报人:武威

论文题目

Selective Encoding for Abstractive Sentence Summarization作者Qingyu Zhou, Nan Yang, Furu Wei, Ming Zhou汇报人周青宇

论文摘要

句子摘要任务的目标是产生一个句子的简短概括。该论文的研究人员提出了选择性编码模型以改善生成式句子摘要的性能。他们的模型包含了一个句子编码器、选择门网络和带注意力机制的解码器。其中,句子编码器和解码器采用了循环神经网络。选择门网络通过控制从编码器到解码器的信息流来构建额外的一层信息表示,该层表示为句子摘要构建了量身定做的语义表示。研究人员在英文Gigaword、DUC 2004和MSR三个生成式句子摘要数据集上进行了测试。实验结果表明本文提出的选择性编码模型性能比当前最优基线模型有显著提高。链接
https://arxiv.org/abs/1704.07073

汇报人:周青宇

论文题目

Gated Self-Matching Networks for Reading Comprehension and Question Answering作者Wenhui Wang, Nan Yang, Furu Wei, Baobao Chang,Ming Zhou汇报人杨南

论文摘要

本文提出了一种针对机器阅读理解和问答任务的端到端的多层神经网络,模型主要由四部分组成。首先通过多层的双向循环神经网络得到问题和篇章的语义向量表示。第二步通过Attention机制和Gate机制学习文章和问题词汇级的匹配,从而得到篇章中每个词和问题的对齐及其重要程度。第三步通过Self-Matching机制,对答案所需要的篇章中的证据和问题信息进行进一步聚合,得到最终的篇章中每个词的语义向量表示。最后使用Pointer Networks得到答案在篇章中的起始位置和结束位置,进而得到问题的最终答案。在Stanford发布的机器阅读理解比赛数据集SQuAD上,本文提出的模型(R-Net)的单模型和集成模型结果都分别排名第一。链接
https://www.microsoft.com/en-us/research/publication/mrc/

汇报人:杨南

论文题目

Adversarial Training for Unsupervised Bilingual Lexicon Induction作者Meng Zhang, Yang Liu, Huanbo Luan, Maosong Sun汇报人张檬

论文摘要

本论文提出了利用对抗学习从非平行文本自动构建双语词典,利用向量空间映射发现双语之间的关联性,克服了传统方法依赖于种子词典的缺点,实现了完全不依赖双语信息、仅利用单语文本构建双语词典的任务,显著提升了机器翻译处理低资源语言的能力。链接http://nlp.csai.tsinghua.edu.cn/~ly/papers/acl2017_zm.pdf

汇报人:张檬

论文题目

Adversarial Multi-Criteria Learning for Chinese Word Segmentation作者Xinchi Chen, Zhan Shi, Xipeng Qiu, XuanjingHuang汇报人陈新驰

论文摘要

不同的语言视角往往导致许多不同细分标准的中文分词语料。大多数现有的方法侧重于改进使用单个标准的语料下的分词性能。如果能利用不同标准的语料来提升分词的效果是很有意义的。在这篇文章中,科研人员使用对抗训练的思想,通过多目标集成学习的方法来学习多个异构标准的分词语料集。在8种不同标准的语料库上的实验表明,相比较于单标准学习方法,模型在每个语料集上的性能都获得了显著改进。链接https://arxiv.org/abs/1704.07556

汇报人:陈新驰

原文链接:http://mp.weixin.qq.com/s/Pdb1bfFYNbkzd8mDQG8GaQ 

微软研究院AI头条
微软研究院AI头条

专注科研19年,盛产黑科技

理论ACL 2017微软亚洲研究院会议理论论文NLP
暂无评论
暂无评论~