爱立信研究院机器推理可解释性研究
作为人工智能的一个领域,机器推理 (MR) 主要使用符号手段来形式化和模拟抽象推理。早期 MR 的研究已经开始对可解释的人工智能 (XAI) 进行调查,这可以说是当今人工智能界最关心的问题之一。从那时起,关于可解释的 MR 以及人工智能其他领域可解释的 MR 方法的工作一直在继续。它在现代的 MR branch 中尤其有效,比如论证,约束和逻辑编程,规划。在此,我们旨在对 MR 可解释性技术和研究进行有选择性的概述,希望从这一长期研究中获得的见解能够很好地补充目前的 XAI 景观。这份文件报告了我们在 MR 解释能力方面的工作进展。