IBM-MIT 新研究:估计深度神经网络中的信息流
虽然越来越多的工作研究神经网络的理论属性,但我们对深度学习的宏观行为的理解仍有许多不足之处。关于在训练期间内部表征的演变,学习表示的属性以及完全训练的网络如何处理信息的因素,问题仍然存在。此外,我们所知道的大部分内容都来自轶事结果。
信息瓶颈理论试图解决这些问题。作为 MIT-IBM Watson 人工智能实验室的一部分,与麻省理工学院的合作者密切合作,我们的 ICML 2019 论文「深度神经网络中的估计信息流」,在数学和经验上分析信息瓶颈理论,特别关注「信息压缩」它预测的现象。