苏剑林作者追一科技单位kexue.fm个人主页

最小熵原理:“层层递进”之社区发现与聚类

让我们不厌其烦地回顾一下:最小熵原理是一个无监督学习的原理,“熵”就是学习成本,而降低学习成本是我们的不懈追求,所以通过“最小化学习成本”就能够无监督地学习出很多符合我们认知的结果,这就是最小熵原理的基本理念。

这篇文章里,我们会介绍一种相当漂亮的聚类算法,它同样也体现了最小熵原理,或者说它可以通过最小熵原理导出来,名为 InfoMap [1],或者 MapEquation。

事实上 InfoMap 已经是 2007 年的成果了,最早的论文是 Maps of random walks on complex networks reveal community structure [2],虽然看起来很旧,但我认为它仍是当前最漂亮的聚类算法,因为它不仅告诉了我们“怎么聚类,更重要的是给了我们一个“为什么要聚类的优雅的信息论解释,并从这个解释中直接导出了整个聚类过程。

▲ 一个复杂有向图网络示意图。图片来自 InfoMap 最早的论文 Maps of random walks on complex networks reveal community structure

当然,它的定位并不仅仅局限在聚类上,更准确地说,它是一种图网络上的“社区发现”算法。所谓社区发现(Community Detection),大概意思是给定一个有向/无向图网络,然后找出这个网络上的“抱团”情况,至于详细含义,大家可以自行搜索一下。简单来说,它跟聚类相似,但是比聚类的含义更丰富(还可以参考《什么是社区发现?》[3])。

熵与编码

在前面几篇文章中,我们一直用信息熵的概念来描述相关概念,而从这篇文章开始,我们引入信息熵的等价概念——平均编码长度,引入它有助于我们更精确地理解和构建最小熵的目标。

二叉树编码

所谓编码,就是只用有限个标记的组合来表示原始信息,最典型的就是二进制编码,即只用 0 和 1 两个数字。编码与原始对象通常是一一对应的,比如“科”可能对应着 11,“学”对应着 1001,那么“科学”就对应着 (11,1001)。

注意这里我们考虑的是静态编码,即每个被编码对象跟编码结果是一一对应的,同时这里考虑的是无分隔符编码,即不需要额外的分隔符就可以解码出单个被编码对象。这只须要求每个编码不能是其余某个编码的前缀(这样我们每次只需要不断读取编码,直至识别出一个编码对象,然后再开始新的读取)。这就意味着所有编码能够构建成一棵二叉树,使得每个编码对应着这棵树的某个叶子,如图所示。

▲ 每个编码都不是其余某个编码的前缀,所以这些编码可以构成一棵二叉树

在此基础上,我们可以得到一个很有趣也很有意义的结论,就是假设 n 个不同的字符,它们的编码长度分别为,那么我们有:

这其实就是这种二叉树表示的直接推论了,读者可以自行尝试去证明它。

最短编码长度

现在想象一个“速记”的场景,我们需要快速地记录下我们所听到的文字,记录的方式正是每个字对应一个二进制编码(暂时别去考虑人怎么记得住字与编码间的对应关系),那为了记得更快,我们显然是希望经常出现的字用短的编码,比如“的”通常出现的很频繁,如果用 11000010001 来表示“的”,那么每次听到“的”我们都需要写这么一长串的数字,会拖慢记录速度,反而如果用短的编码比如 10 来表示“的”,那相对而言记录速度就能有明显提升了。

假设一共有 n 个不同的字符,每个字符的出现概率分别是,那么我们可能会感兴趣两个问题:第一是如何找到最优的编码方案,使得总的平均编码长度最短;第二是理论上这个平均编码长度最短是多少?

对于第一个问题,答案是 Huffman 编码,没错,就是 Word2Vec 里边的 Huffman Softmax 的那个 Huffman,但这不是本文的重点,有兴趣的读者自行找资料阅读就好。而第二个问题的答案,是信息论里边的一个基本结果,它正是信息熵

也就是说,信息熵正好是理论上的最短平均编码长度。注意这是一个非常“强大”的结果,它告诉我们不管你用什么编码(不管是有分隔符还是没分隔符,不管是静态的还是动态的),其平均编码长度都不可能低于 (2)。

在这里我们就前面说的无分隔符编码场景,给出 (2) 的一个简单的证明。依然设 n 个字符的编码长度分别是,那么我们可以计算平均编码长度:

因为我们有不等式 (1),所以定义:

上式可以写成:

这就是概率分布交叉熵,而交叉熵在 P=Q 时取得最小值(这可以通过 KL(P||Q)≥0 得到),所以最终有:

其实稍微接触过信息论的读者,都应该知道这个结论,它告诉我们编码的最短平均长度就是信息熵,这其实也是无损压缩的能力极限,我们通过寻找更佳的方案去逼近这个极限,这便是最小熵。

最后,由于不同的对数底只会导致结果差一个常数比例,所以通常情况下我们不特别声明是哪个底,有些情况下则干脆默认地使用自然对数底。

InfoMap

回到 InfoMap,它跟前面说的压缩编码有直接联系。事实上,在中大读研一的时候导师就已经给笔者介绍过 InfoMap 了,但是很遗憾,直到前几天(2019 年 10 月 15 日)我才算是理解了 InfoMap 的来龙去脉。那么久都没弄懂的原因,一方面是当时对信息熵和编码相关理论都不熟悉,以至于看到文章的概念就觉得迷迷糊糊;另一方面,我觉得原论文的作者们可能并不清楚非信息论相关的读者理解这个算法的瓶颈在哪,以至于没有把关键地方表达清楚。

于是我决定把我自己的理解写下来,希望能让给多的读者更好地理解 InfoMap 这个算法,毕竟它真的很美。

InfoMap 论文清单:

https://www.mapequation.org/publications.html

为了一个算法还特意办了一个网站,并且算法活跃至今,可见作者本身对这个算法的热爱,以及这个算法的漂亮和有效。

分类记忆

假如我们有这么一个任务,要求我们在短时间内把下面的序列背下来:

待记忆序列

序列不长,背下来不难,为了快速地形成记忆,大家的记忆思路可能是这样的:

1. 前面 3 个是水果;中间 5 个是城市;后面 4 个是阿拉伯数字;

2. 前面 3 个水果分别是雪梨、葡萄、香蕉;

3. 中间 5 个城市分别是广州、上海、北京、杭州、深圳;

4. 后面 4 个数字分别是 123、654、798、963。

也就是说,大家基本上都会想着按类分组记忆的思路,这样记忆效率和效果都会更好些,而最小熵系列告诉我们,“提效”、“省力”的数学描述就是熵的降低,所以一个好的分类方案,应该是满足最小熵原理的,它能够使得系统的熵降低。这便是 InfoMap 本质的优化目标,通过最小化熵来寻求最优的聚类方案。

层次编码:概念

前面说了,信息熵就等价于最短编码长度,所以最小熵事实上就是在寻找更好的压缩算法。既然刚才说分组记忆效率更高,那必然对应着某种编码方法使得我们能更有效地压缩信息,这种编码方法就是层次编码。

所谓层次编码,就是我们不再用单一的编码来表示一个对象,而是用两个(也可以更多,本文主要分析两个)编码的组合来表示一个对象,其中第一个编码代表对象的类别,第二个编码则代表它在类内的编号。假如同一个类的对象经常“扎堆”出现,那么层次编码就能起到压缩的作用。

究竟怎样的层次编码能压缩呢?很遗憾,我看到的所有 InfoMap 的资料,包括原作者的论文,都没有突出这个分层编码的方法。我认为这个编码过程是要突出的,这样对非信息论相关专业的读者会更友好。事实上,它的编码过程如下:

▲ 层次编码方式。在同一个类别的词语前插入一个类别标记,以及在类结束处插入一个终止标记

要注意,编码要保证无损,换言之要有相应的方法解码为原始序列,为此层次编码在原始序列的基础上插入了类别标记和终止标记,其中类别标记用单独一套编码,类别内的对象以及终止标记用另一套编码,由于有了类别区分,因此不同类的对象可以用同一个编码,比如上图中“雪梨”和“上海”都可以用 001 编码,这样就可以使得整体的平均编码长度变小了。解码的时候,只需要读到第一个类别编码,就开始使用该类别的类内编码来识别原对象,直到出现结束符就开始新的类别编码读取,然后重复这个过程。

层次编码:计算 

好了,既然确定了这种编码方式确实是无损的,接下来就需要计算了,因为“缩短平均编码长度”的结论不能单靠直观感知,还必须有定量的计算结果。

假设已经有了特定的层次编码方案,那么我们就可以计算这种编码方案的平均编码长度了,定义下述记号:

根据上述编码约定,每个类别序列的出现,必然以该类别的终止标记结束,所以也是类别 i 的终止标记的出现概率。要强调的是,这里的概率都是指全局归一化的概率,也就是:

由于类和类内对象使用两套不同的编码,所以可以分别计算两者的最短平均编码长度。其中,类的最短平均编码长度是:

这里。这是因为类的编码是独立一套的,将类的概率在类间归一化后,代入熵的公式就得到类的理论上的最短平均编码长度了。

类似地,每个类 i 的类内对象的最短平均编码长度是:

这里。对了,要提醒读者的是认真区分好记号(p 还是 q?↷还是 ↻?),不要看错了,一旦看错将会大大增加你的理解难度。上式的含义也很清晰,每个类的类内对象都用独自的一套编码,所以连同终止标记概率在类内归一化后,代入熵的公式。

最后,将两者加权平均,就得到总的最短平均编码长度了:

现在,我们有了一个定量的指标 (11),可以比较两种不同的层次编码方案的优劣。反过来,有了一个对象序列后,我们可以去搜寻一个层次编码方案,使得 (11) 越小越好,从而就找到了这些对象的一个聚类方案。注意这样的聚类算法几乎没有任何参数——只需要给定对象序列,我们就可以得到该序列的层次编码,目标是 (11) 最小化,这不需要事先指定聚类数目等参数(管你聚多少类,总之只要 (11) 更小就行了)。

随机游走 

至此,我们得到了一个优化目标 (11),在给定一个序列的情况下,我们可以通过最小化这个目标来为这个序列的对象聚类。但我们仍然还没有将它跟经典的聚类任务对应起来,因为经典的聚类问题并没有这种序列,一般只是给出了任意两个样本之间的相似度(或者给出样本本身的向量,通过这个向量也可以去算两个样本之间的某种相似度)。

InfoMap 做得更细致一些,它将我们要聚类的样本集抽象为一个有向图,每个样本是图上的一个点,而图上的任意两个点 (α,β) 都有一条 β→α 的边,边的权重为转移概率。对于普通的图,图上的边一般就是代表着两个点之间的相似度,然后我们可以通过将边的权重归一化来赋予它转移概率的含义。

有了这个设定之后,一个很经典的想法——“随机游走”——就出来了:从某个点 j 开始,依概率 p(i|j) 跳转下一个点 i,然后从 i 点出发,再依转移概率跳转到下一个点,重复这个过程。这样我们就可以得到一个很长很长的序列。有了序列之后,就能以 (11) 为目标来聚类了。

▲ InfoMap 编码与聚类过程。(a)随机游走; (b)根据随机游走的概率直接构建 huffman 编码; (c)层次编码; (d)层次编码中的类别编码。最下方显示了对应的编码序列,可以看到层次编码的编码序列更短

这就是 InfoMap 的聚类过程了——通过构造转移概率,在图上进行随机游走来生成序列,在通过对序列做层次编码,最小化目标 (11),从而完成聚类

顺便提一下,当初 DeepWalk [4](2014 年)提出来在图上进行随机游走生成序列然后套用 Word2Vec 的做法,不少人都觉得很新奇,是个突破,但现在看来在图上做随机游走的思路由来已久了。

InfoMap 

现在,我们将上述过程做得更细致化、数学化一些,毕竟数学公式是把原理描述清楚的唯一方法。

首先,我们不需要真的图上进行随机游走模拟,因为事实上我们不需要生成的序列,我们只需要知道随机游走生成的序列里边每个对象的概率,为此,我们只需要去解方程:

或者写成。这也好理解,也就是假设最终的平稳分布是,那么再随机游走一步,它还是原来的分布。

但是,单纯这样的随机游走,结果可能会依赖于迭代的初始值,说白了,就是方程 (12) 的解可能不唯一。这并不难想象,假如图上有一些孤立区域,那如果游走进这些孤立区域,那就永远出不来了,导致区域以外的点的概率全都为 0 了。

结果跟初始值有关,这是不合理的,聚类结果应该只跟图本身有关。为了解决这个问题,作者引入了“穿越概率”τ:以 1−τ 的概率按照的转移概率来随机游走,以 τ 的概率随机选择图上任意一个点跳转。这样的话,Pα 的方程是:

其实就相当于转移概率换成了

有了穿越概率,模型一般就不会陷入某个局部解了,从而导致了解的唯一性。τ 是一个额外的超参,作者取了 τ=0.15,而为了使得结果对 τ 更鲁棒,作者还使用了其他一些技巧,具体细节请去看作者的 The map equation [5] 和 Community detection and visualization of networks with the map equation framework [6]。

现在,Pα 有了,距离目标 (11),我们还差是类别的概率,也是终止标记的概率。什么时候会出现终止标记?出现终止标记意味着后面的类是已经不是 i 类了,所以终止标记的概率实际上就是“从一个类别跳转到另一个类别的概率”,换言之就是随机游走过程中“离开 i 类”这件事情发生的概率,它等于:

如果带有穿越概率的话,那要将换成,即:

其中是类 i 的类内对象数目。

现在 Pα 和的形式都出来了,理论上我们需要将 Pα 和按照式 (8) 归一化,但是 (15) 的形式显示也是正比于 Pα 的,而优化目标 (11) 只看相对概率,所以归不归一化都行。

好,现在万事具备,InfoMap 整个流程就出来了(第 3 步的搜索策略在实验部分再介绍):

1. 定义好样本间的转移概率

2. 数值求解 (13),得到 Pα;

3、搜索聚类方案,使得 (11) 尽可能小,其中每种聚类方案中的按照 (15) 算。

推广思路

InfoMap 的美妙之处,不仅在于它漂亮的信息论解释、没有过多的超参等,还在于它易于推广性——至少思路上是很容易想到的。

比如,前面都是用两层的层次编码,我们可以构造多层的层次编码,也就是给类再聚类,而事实上将优化目标 (11) 从双层推广到多层只是一件繁琐但没有技术难度的事情,因为只需要模仿双层编码的方式,构思对应的多层编码的方案(引入类中类的类标记和终止标记等),具体细节可以参考 Multilevel compression of random walks on networks reveals hierarchical organization in large integrated systems [7]、Community detection and visualization of networks with the map equation framework [6],本文不再详细介绍了。

再比如,还可以推广到重叠社区挖掘。所谓重叠社区挖掘,也就是单个对象可能同时属于多个不同的类别。

《什么是社区发现?》[3] 一文提供一个关于小区大妈组队跳广场舞的很生动的例子:一般来说,每个大妈参加活动时,往往会优先选择自己所在小区的广场舞队伍,但是,有些大妈精力比较旺盛,觉得只参加自己小区的队伍还不过瘾,或者她是社交型人士,希望通过跳广场舞认识更多的朋友,那么,她可能会同时参加周边小区的多个广场舞队伍,换言之,她同时就属于多个社区(类)了。

另外还可以从 NLP 的词聚类角度来看,重叠社区挖掘就意味着多义词的挖掘了。对于 InfoMap 来说,挖掘重叠社区依然是最小化 (11),将同一个对象赋予到多个类中,对该对象本身的编码会引入一定的冗余,但是有可能减少了类标记和终止标记的使用,从而降低了整体的平均编码长度。论文则可以参考 Compression of Flow Can Reveal Overlapping-Module Organization in Networks [8]。

这些推广特性都是大多数其他聚类算法和社区发现算法所不具备的,这进一步体现了 InfoMap 的强大与漂亮。此外,官网的 publications [9] 页面上还有一堆 InfoMap 的推广和应用论文,都可以参考:

▲ InfoMap 官方提供的论文列表

实验

好了,说了那么久理论,也该动动手做做实验了。本节会先简单介绍一下 InfoMap 具体是怎么搜索这种分类策略的,然后给出一个词聚类的例子,初步体验一下 InfoMap 的魅力。

求解算法 

InfoMap 最早的求解算法是贪心搜索加模拟退火。贪心搜索中,最开始将每个点都视为不同的类,然后将使得 (11) 下降幅度最大的两个类合并为一个类,并且重复这个过程,直到不能下降为止;模拟退火是在探索搜索的结果基础上对聚类方案进行进一步的微调(来自 Maps of random walks on complex networks reveal community structure [2])。

而后在 The map equation [5]一文中,作者改进了贪心搜索,并移除了模拟退火,使得它达到了速度和效果的平衡。改进的算法大概是(具体细节还是得看原论文):

1. 每个点都初始化一个独立的类;

2. 按照随机的顺序遍历每个点,将每个点都归到让 (11) 下降幅度最大的那个相邻的类;

3. 重复步骤 2(每次都用不同的随机顺序),直到 (11) 不再下降;

4. 通过一些新的策略来精调前面三步得到的聚类结果。

不管是早期的求解算法还是后来的改进算法,InfoMap 的求解都称得上非常快,它里边给出了两组参考结果:1)单纯用贪心搜索可以在 260 万个节点、2900 万条边的图网络上成功完成社区发现;2)改进的算法在 1 万个节点、10 万条边的图网络上的社区发现可以在 5 秒内完成(考虑到当时的计算机并没有现在的快,所以现在跑的话就不用五秒了)。

安装说明 

作者们用 C++实现了 InfoMap,并且提供了 Python、R 等第三方语言的接口,同时支持 Linux、Mac OS X 和 Windows 系统。

官网:https://www.mapequation.org/code.html

Github:https://github.com/mapequation/infomap

这里自然是只关心 Python 接口了。经过一番折腾,确定了下面几个情况:

1. InfoMap 目前有两个版本,其中 0.x 的是稳定版,另外有个 1.0 处于 beta 阶段;

2. 直接 pip install infomap 安装的就是 beta 的 1.0 版本,但是功能不全,并且只支持 Python 3.x;

3. 全功能的还是 0.x 版本,支持 Python 2.7,但我不知道为什么 0.x 的最新版编译成功后 import 会出错。

因为我之前就安装过 InfoMap 并且用得很舒适,但弄到新版后各种问题(不知道作者是怎么改的),所以我建议还是从 Github 上拉它的 0.x 的旧版本手动编译安装吧,下面是参考的编译安装代码:

wget -c https://github.com/mapequation/infomap/archive/6ab17f8b18a6fdf34b2a53454f79a3b976a49201.zip
unzip 6ab17f8b18a6fdf34b2a53454f79a3b976a49201.zip
cd infomap-6ab17f8b18a6fdf34b2a53454f79a3b976a49201
cd examples/python
make

# 编译完之后,当前目录下就会有一个infomap文件夹,就是编译好的模块;
# 为了方便调用,可以复制到python的模块文件夹(每台电脑的路径可能不一样)中
python example-simple.py
cp infomap /home/you/you/python/lib/python2.7/site-packages -rf

examples/python [10] 则给出了一些简单的 demo,可以阅读参考。

聚类

下面跟 Word2Vec 配合,跑一个词聚类的例子,代码位于:https://github.com/bojone/infomap/blob/master/word_cluster.py

聚类结果(部分):

显然看起来聚类效果是很不错的。

总结

写了好几天,终于把这篇文章写完了,被我搁置了 2 年多的算法,总算是把它拿起来并且基本理解清楚了。

总的来说,InfoMap 就是建立在转移概率基础上的一种聚类/社区发现算法,有清晰的信息论解释(最小熵解释),并且几乎没有任何超参(或者说超参就是转移概率的构建),目前不少领域都开始关注到它,试图用它来从数据中挖掘出有一定联系的模块(哪个领域没有节点和图网络的结构呢?)。当初我导师就是建议我用它来分析基因数据的,可惜我最终还是没有完成这个目标。不管怎样,就因为它如此的优雅美妙,我觉得都应该去好好了解它。

最后,顺便说一下,这已经是最小熵原理的第五篇文章了,它究竟还能走多远?让我们拭目以待。

相关链接

[1] https://www.mapequation.org/
[2] https://arxiv.org/abs/0707.0609
[3] https://blog.csdn.net/itplus/article/details/41348651
[4] https://arxiv.org/abs/1403.6652
[5] https://arxiv.org/abs/0906.1405
[6] https://www.mapequation.org/assets/publications/mapequationtutorial.pdf
[7] https://arxiv.org/abs/1010.0431
[8] https://arxiv.org/abs/1105.0812
[9] https://www.mapequation.org/publications.html
[10] https://github.com/mapequation/infomap/tree/master/examples/python
PaperWeekly
PaperWeekly

推荐、解读、讨论和报道人工智能前沿论文成果的学术平台。

理论聚类算法无监督学习最小熵原理
3
相关数据
权重归一化技术

权重归一化是一个深度神经网络训练的技巧,从字面意思看来Weight Normalization就是对每一层网络权重进行归一化。

权重技术

线性模型中特征的系数,或深度网络中的边。训练线性模型的目标是确定每个特征的理想权重。如果权重为 0,则相应的特征对模型来说没有任何贡献。

交叉熵技术

交叉熵(Cross Entropy)是Loss函数的一种(也称为损失函数或代价函数),用于描述模型预测值与真实值的差距大小

感知技术

知觉或感知是外界刺激作用于感官时,脑对外界的整体的看法和理解,为我们对外界的感官信息进行组织和解释。在认知科学中,也可看作一组程序,包括获取信息、理解信息、筛选信息、组织信息。与感觉不同,知觉反映的是由对象的各样属性及关系构成的整体。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

概率分布技术

概率分布(probability distribution)或简称分布,是概率论的一个概念。广义地,它指称随机变量的概率性质--当我们说概率空间中的两个随机变量具有同样的分布(或同分布)时,我们是无法用概率来区别它们的。

超参数技术

在机器学习中,超参数是在学习过程开始之前设置其值的参数。 相反,其他参数的值是通过训练得出的。 不同的模型训练算法需要不同的超参数,一些简单的算法(如普通最小二乘回归)不需要。 给定这些超参数,训练算法从数据中学习参数。相同种类的机器学习模型可能需要不同的超参数来适应不同的数据模式,并且必须对其进行调整以便模型能够最优地解决机器学习问题。 在实际应用中一般需要对超参数进行优化,以找到一个超参数元组(tuple),由这些超参数元组形成一个最优化模型,该模型可以将在给定的独立数据上预定义的损失函数最小化。

信息熵技术

在信息论中,熵是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。这里,“消息”代表来自分布或数据流中的事件、样本或特征。熵的单位通常为比特,但也用Sh、nat、Hart计量,取决于定义用到对数的底。

信息论技术

信息论是在信息可以量度的基础上,研究有效地和可靠地传递信息的科学,它涉及信息量度、信息特性、信息传输速率、信道容量、干扰对信息传输的影响等方面的知识。通常把上述范围的信息论称为狭义的信息论,又因为它的创始人是香农,故又称为香农信息论。

图网技术

ImageNet 是一个计算机视觉系统识别项目, 是目前世界上图像识别最大的数据库。

聚类技术

将物理或抽象对象的集合分成由类似的对象组成的多个类的过程被称为聚类。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。“物以类聚,人以群分”,在自然科学和社会科学中,存在着大量的分类问题。聚类分析又称群分析,它是研究(样品或指标)分类问题的一种统计分析方法。聚类分析起源于分类学,但是聚类不等于分类。聚类与分类的不同在于,聚类所要求划分的类是未知的。聚类分析内容非常丰富,有系统聚类法、有序样品聚类法、动态聚类法、模糊聚类法、图论聚类法、聚类预报法等。

图网络技术

2018年6月,由 DeepMind、谷歌大脑、MIT 和爱丁堡大学等公司和机构的 27 位科学家共同提交了论文《Relational inductive biases, deep learning, and graph networks》,该研究提出了一个基于关系归纳偏置的 AI 概念:图网络(Graph Networks)。研究人员称,该方法推广并扩展了各种神经网络方法,并为操作结构化知识和生成结构化行为提供了新的思路。

暂无评论
暂无评论~