可解释自然语言处理(NLP):用于文本分类的生成式解释框架
由于大多数机器学习模型无法对预测做出解释,因而建立可解释系统是自然语言处理领域的重要问题。当前,可解释学习系统的方法往往侧重于对输出或者输入与输出之间的联系进行解释。但是,这类方法往往忽略掉细粒度信息(如标签的文本解读),并且系统也无法显式地生成可读解释。为了解决这一问题,在论文《Towards Explainable NLP: A Generative Explanation Framework for Text Classification》中,研究者提出了一种全新的生成解释框架,该框架能够同时学习制定分类决策和生成细粒度解释。更具体地说,他们提出的可解释因素和风险最小训练方法能够学习生成更合理的解释。研究者构建两个包含总结、评分和细粒度原因的新数据集。此外,他们分别在两个数据集上进行实验,对比几个强大的神经网络基准系统。实验结果表明,研究者提出的方法在两个数据集上都优于所有基准方法,并且能够同时生成简洁的解释。