港大、华为诺亚方舟等新研究,扰动掩码,这些都是你没玩过的BERT全新用法
BERT 在各大 leaderboard 上的横扫带火了几个大的研究方向,一是如何训练一个更强、更快的语言模型,二是如何在下游任务上加入 BERT 来提升模型的表现,以及一个相对小众的,但是大家都比较感兴趣的问题:为啥 BERT 效果这么棒?在最近召开的 ACL 会议上,华为诺亚方舟实验室语音语义团队提出了一种无监督的探索 BERT 可解释性的方法——扰动掩码(Perturbed Masking)。这里对该文章进行解读,我们会首先概述一下相关背景知识并介绍有监督的可解释性研究的做法及其弊端,然后以一个例子来介绍文中提出的扰动掩码的具体做法,并在文末展望一下这项技术的可能的应用。