使用深度变分信息瓶颈方法解释黑盒子
在解释黑箱决策系统时若想简明扼要地提供大量信息,简单和全面是必要的。然而,现有的可解释的机器学习方法不能同时考虑简洁性和全面性,这可能会导致冗余的解释。论文《Explaining a black-box using Deep Variational Information Bottleneck Approach》提出了一种系统无关的可解释方法,通过采用信息论原则——信息瓶颈原理——提供了一个简洁而全面的解释。使用信息论对象,变分信息瓶颈方法(VIBI)选择关于输入(简要性)最大压缩的实例方面的关键特征,并提供关于由该输入(综合)的黑盒决策的信息。选定的关键特征充当一个信息瓶颈,作为每个黑盒决策的简明解释。研究表明,VIBI在人类和数量指标评估的可解释性和保真度方面优于其他可解释的机器学习方法。