MIT 新研究论文,通过网络解剖解释深层视觉表征
在近日的「IEEE 模式识别和机器学习」中,MIT 发表新研究论文,研究人员概括道:深度卷积神经网络(CNN)的成功取决于学习隐藏的表示,这些表示可以总结数据背后变化的重要因素。在这项工作中,我们描述了 Network Dissection,这是一种通过为各个单元提供有意义标签来解释网络的方法。通过评估各个隐藏单元和视觉语义概念之间的对齐来量化 CNN 表示的可解释性。该方法揭示了深度表示比在随机等效强大的基础上更加透明和可解释。我们应用我们的方法来解释和比较受过训练的几种网络架构的潜在表示,以解决各种监督和自我监督的任务。随后,我们检查影响网络可解释性的因素,例如训练迭代次数,正则化,不同的初始化参数,以及网络深度和宽度。最后,我们展示了解释的单元可用于提供对图像的给定 CNN 预测的明确解释。我们的结果强调,可解释性是深度神经网络的一个重要特性,它为层次结构可以学习的内容提供了新的见解。(IEEE)