用数学逻辑来优化工作和人生

编者按:从数学博士到投身计算机科学研究,微软亚洲研究院机器学习组主管研究员陈薇将理性严谨的数学思维融入到了工作与生活的方方面面:在研究领域,陈薇以她坚实的数学背景与研究团队一起从事机器学习理论和算法优化的研究,为机器学习的加速发展奠定了有力的理论基础;在生活中,她也用数学思维来不断优化自己的人生。

数学博士陈薇是位知性、温婉的女性研究员,常年的数学思维训练,让她很善于用各种模型去解释生活中的大小问题。在她看来,“如果把人生看成一个优化问题,那么只有影响力能成为其目标。”自选择做计算机科学研究的那一天起,研究的影响力便成为陈薇追寻的目标。在加入微软亚洲研究院后,陈薇与合作者们一起从理论上理解机器学习方法并改进算法,先后在排序学习、博弈机器学习、分布式机器学习深度学习强化学习理论等机器学习的各个分支取得了多项重要研究成果,为机器学习的加速发展奠定了有力的理论基础。

“顶天立地”的数学思维

2008年8月5号——北京奥运会开始的前三天,陈薇因为她在中科院的导师与微软亚洲研究院的联合科研项目,开始了在微软亚洲研究院的实习。当时陈薇主要做的是与复杂随机网络相关的课题,并为此提供一些算法的理论分析。2010年陈薇的实习结束,优异的她获得了微软亚洲研究院的Offer,但让她有些犹豫的是,像她一样学数学的同学在当时大多都选择去了高校或金融机构,跨界到计算机领域可算是同学中的独一份。

在这个抉择的过程中,陈薇当时的Mentor、现任微软亚洲研究院副院长刘铁岩博士给出了几条建议,令她记忆犹新:一,无论在什么组织里,最重要的都是体现自己的价值,不要因为体制不同、有陌生感,就担心、害怕,在哪里都是做研究,与体制无关;二,对于行业问题,在高校做研究一般按照自己的知识体系前行,基于自己技术积累的程度,去寻找相应的研究问题,但在微软亚洲研究院,你会发现因为基于微软这个平台公司,这里永远不缺少计算机科学问题,而且这里还有大量的数据,所以数学在这里也有很大的发挥空间——可以把问题抽象出来,然后利用数据再把它的Pattern(模型)找出来;三,与聪明人为伴,或者说是与能够让你进步的人一起工作。

微软亚洲研究院主管研究员陈薇

彼时,在微软亚洲研究院实习了两年多的陈薇已经对微软亚洲研究院相当了解,并且学到了不少技术和方法论。“数学的本质就是一个把问题抽象出来,利用数据和数学逻辑进行推理建模寻找规律的过程。微软亚洲研究院作为一个顶级的研究机构,所面临的问题也是来自前沿的挑战,在这里你完全就是站在计算机科学研究的最顶端。”因此陈薇决定加入微软亚洲研究院便无悬念。现在回想起来,陈薇觉得自己可能一直就有那么一股愿意解决各种问题的冲劲儿,而这股力量后来又推动她攻克下了一个又一个难题。

陈薇面临的第一个难题就是排序项目,当时业界已经有了很多排序算法,同时也有很多排序的评价准则。但陈薇和同事们却发现,那会儿训练模型的算法是一套,而评价准则却是另外一套,于是他们试图打通其中的关联,从而完善整个体系。在研究的过程中,拥有数学背景的陈薇不仅设计了全新的本质损失函数,找到了更好的算法,而且对于走在前面的算法,她还给出了理论上的解释,去发现还有什么可以改进的空间。就这样,训练模型和评价准则之间的关系便有解了。陈薇也第一次在计算机领域的研究中,深刻地体会到了数学的用武之地。 

排序算法中的本质损失函数

相反,对算法问题进行数学拆分,再逐步研究其中的优化空间,则是陈薇利用数学思维开辟出的蹊径,同时,这也是陈薇做分布式机器学习的思路。事实上,分布式机器学习与传统分布式计算有本质区别,因为它是一个迭代式的优化算法。用分布式计算去做机器学习,就要把问题一步步细化,比如数据怎么分、本地间如何交互、如何合并成模型、什么时候通信、如何通信等等,当把整个分布式框架拆分开来,优化的路径也更为清晰。在陈薇看来,这正是数学的体系化思维带给她的优势。

关于数学思维,陈薇认为它是一整套的体系化思考和观察角度,与之相应的方法论,就是她的导师中科院数学院马志明院士常教导的——做应用数学的学生们要“顶天立地”。马老师常说:“做算法做到最后需要去理解它背后的数学机理是什么?它的理论保证是什么?除了实验上的尝试之外,我们还要证明一些东西,去改进它。这样就有机会产生颠覆性创新思维,做到胜人一筹,这叫做‘顶天’。与此同时,在实验过程中,不断发现问题、优化问题、解决问题,使得算法能真正解决实际问题,这就是‘立地’。”“顶天立地”四个字陪伴着陈薇在微软亚洲研究院走过了10年,也让她在之后的诸多跨界研究中有了底气。

跨界研究是创新的开端

陈薇的数学专业方向是概率统计,偏向于连续数学。但在她正式加入微软亚洲研究院之后不久,她所在的小组调整了研究方向——研究属于博弈论范畴的广告拍卖机制。博弈论具有离散组合数学的属性,与连续的概率统计技术相差很大。几乎陌生的研究领域起初让陈薇有些畏难情绪,因为这意味着她要从头学习博弈论的所有理论基础。但作为当时组里唯一一位数学专业出身的研究员,陈薇开始组织大家阅读、学习相关文献著作,渐渐投身研究。

传统的广告词购买,数据匹配通常不够精确、灵活,遇到关键词有多种意思时很容易混淆,比如苹果,可能是指水果,也可能是指电子产品,但无论广告主投标的是这一关键词的何种含义,其广告都会被混在一起打包投放。这种拍卖机制中并不存在纳什均衡,系统的稳定性较差,博弈论关心的两个目标社会福利和平台收益也无从保证。为了解决这个问题,陈薇及其合作者设计了全新的概率广义匹配拍卖机制,根据数据设计概率将关键词匹配至更细致的含义中,使得系统存在性质优良的纳什均衡。经过两年的时间,这一研究成果最终被计算机经济学领域最权威的学术会议ACM EC接收。

概率广义匹配拍卖机制

同时,陈薇也在思考如何用机器学习算法设计机制。不同于传统的监督学习,博弈问题中的行为数据会随着策略的变化而变化,学习算法所需要必备的泛化性能受到挑战。陈薇及其合作者引入行为学习模块,用来模拟行为数据的变化,然后设计机制学习模块学习最优机制。他们证明了如果行为模型是马氏的,学习算法仍然具有良好的泛化性能。他们称这一针对博弈论问题具有良好泛化性能的算法“博弈机器学习”。

博弈机器学习

陈薇表示,博弈机器学习这个项目完成之后,涉及任何数学分支的研究她都敢去接触,无论自己之前在某个或某些领域的积累有多少,但如果遇到新的问题,需要去“啃”新的技术和理论,那也没有什么可怕的。在她看来,这样的学习能力,也是做一个研究员所必须具备的基本素质。

谁说深度学习没有理论?

2014年左右,陈薇在刘铁岩博士的鼓励下开始研究深度学习理论。深度学习理论研究是知名的硬骨头,当时业界有一个说法就是“深度学习没有理论”。所谓“没有理论”,是因为过去从来没有人提出相应的理论,业内整体对此也很迷茫。几十年前就已经被提出的神经网络概念,在近十年再度觉醒,一下成为了风靡业界的宠儿,整个学术圈都在追求设计出更大、更好的深度学习模型,但始终忽略了对其背后理论的探索。

这个工作非常重要且意义非凡,因此刘铁岩博士极力劝说陈薇去尝试探究。但因为此前没有人做过对深度学习理论的研究,所以其难度可想而知,没有任何可参考的资料和思路,一切完全都要自己去理解和创造。

陈薇坦言,每次遇到崭新的考验,她都会怀疑自己的坚韧,而每当这种时候,刘铁岩博士总能帮她将顾虑一条条厘清,克服障碍。“这或许就是Mentor的含义,微软亚洲研究院就是这样靠着Mentor,靠着一群志同道合的聪明人,一代一代传承下去”陈薇说。

于是,刘铁岩博士又给陈薇提出了三个建议:一,要从更高层次的角度去思考问题,这是学数学的同学需要特别注意的地方,因为数学证明很容易陷入到细节里去,这种时候需要能够跳出来看问题,从更高的层面去把握小问题之间的关联;同时学习倾听你的直觉,在举棋不定的时候,可能直觉会告诉你应该朝哪个方向走,而这对数学证明也会有帮助。二,要树立一个特别特别高的目标,不要觉得这是个开放问题就放任不理,去做你觉得应该做的,去做真正有影响力的事情,哪怕它很难。三,不断学习,需要用到什么就学什么,要有针对性地学。

2016年,陈薇及其合作者用间隔理论解释了深度学习中网络层数的作用。近两年,学术界和业界开始普遍关注深度学习的理论问题,而她和团队已经进一步向前,从更加大胆的视角去剖析深度学习理论。

陈薇(左二)、刘铁岩(左三)与团队成员

人生的优化公式,
不要把"约束”错当成“目标”

“影响力”这个词让陈薇找到了她的目标所在。在工作中,尤其是做研究,影响力是最核心的评价指标,虽然在微软亚洲研究院并没有具体的KPI,但每位研究员都在致力于做出具有影响力的研究和项目。而在生活中,陈薇也借鉴了“影响力”这个概念。

正如文章开头所说,陈薇觉得人生也可以用数学逻辑去优化,她发现人们在寻求最优值的过程中有时会走弯路,常常把数学模型中的约束(Constraint)错当成了目标,这里的约束,有时候是婚姻,有时候是子女,有时候是“剩者为王”的社会压力。“我们见过太多的启程,因为某种‘和解’半途而废,而这时调转马头所朝的方向,早已不是出发时的目标。”所以当你急着赶路,要去向某个终点的时候,不妨时常静下心来想一想,那是“约束”还是真正的“目标”?

微软研究院AI头条
微软研究院AI头条

专注科研19年,盛产黑科技

产业深度学习机器学习
2
相关数据
纳什均衡技术

纳什平衡,又称为非合作赛局博弈,是在非合作博弈状况下的一个概念解,在博弈论中有重要地位,以约翰·纳什命名。 如果某情况下无一参与者可以通过独自行动而增加收益,则此策略组合被称为纳什均衡点。

深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

损失函数技术

在数学优化,统计学,计量经济学,决策理论,机器学习和计算神经科学等领域,损失函数或成本函数是将一或多个变量的一个事件或值映射为可以直观地表示某种与之相关“成本”的实数的函数。

神经网络技术

(人工)神经网络是一种起源于 20 世纪 50 年代的监督式机器学习模型,那时候研究者构想了「感知器(perceptron)」的想法。这一领域的研究者通常被称为「联结主义者(Connectionist)」,因为这种模型模拟了人脑的功能。神经网络模型通常是通过反向传播算法应用梯度下降训练的。目前神经网络有两大主要类型,它们都是前馈神经网络:卷积神经网络(CNN)和循环神经网络(RNN),其中 RNN 又包含长短期记忆(LSTM)、门控循环单元(GRU)等等。深度学习是一种主要应用于神经网络帮助其取得更好结果的技术。尽管神经网络主要用于监督学习,但也有一些为无监督学习设计的变体,比如自动编码器和生成对抗网络(GAN)。

监督学习技术

监督式学习(Supervised learning),是机器学习中的一个方法,可以由标记好的训练集中学到或建立一个模式(函数 / learning model),并依此模式推测新的实例。训练集是由一系列的训练范例组成,每个训练范例则由输入对象(通常是向量)和预期输出所组成。函数的输出可以是一个连续的值(称为回归分析),或是预测一个分类标签(称作分类)。

逻辑技术

人工智能领域用逻辑来理解智能推理问题;它可以提供用于分析编程语言的技术,也可用作分析、表征知识或编程的工具。目前人们常用的逻辑分支有命题逻辑(Propositional Logic )以及一阶逻辑(FOL)等谓词逻辑。

博弈论技术

博弈论,又译为对策论,或者赛局理论,应用数学的一个分支,1944年冯·诺伊曼与奥斯卡·摩根斯特恩合著《博弈论与经济行为》,标志着现代系统博弈理论的的初步形成,因此他被称为“博弈论之父”。博弈论被认为是20世纪经济学最伟大的成果之一

分布式计算技术技术

在计算机科学中,分布式计算,又译为分散式運算。这个研究领域,主要研究分布式系统如何进行计算。分布式系统是一组电脑,通过网络相互链接传递消息与通信后并协调它们的行为而形成的系统。组件之间彼此进行交互以实现一个共同的目标。

强化学习技术

强化学习是一种试错方法,其目标是让软件智能体在特定环境中能够采取回报最大化的行为。强化学习在马尔可夫决策过程环境中主要使用的技术是动态规划(Dynamic Programming)。流行的强化学习方法包括自适应动态规划(ADP)、时间差分(TD)学习、状态-动作-回报-状态-动作(SARSA)算法、Q 学习、深度强化学习(DQN);其应用包括下棋类游戏、机器人控制和工作调度等。

推荐文章
暂无评论
暂无评论~