Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

罗志鹏作者微软Bing搜索广告算法工程师单位NLP、广告相关性匹配、CTR预估研究方向

NeurIPS 2018 AutoML Phase1 冠军队伍 DeepSmart 团队解决方案分享

近日,由第四范式、ChaLearn、微软和阿卡迪亚大学联合举办的 NeurIPS 2018 AutoML 挑战赛公布了最终结果:Feed-Back 阶段由微软与北京大学组成的 DeepSmart 团队斩获第一名,由 MIT 和清华大学组成的 HANLAB 斩获第二名,由南京大学 PASA 实验室斩获第三名。在 Blind Test 阶段由 Autodidact.ai,Meta_Learners,GrandMasters 斩获前三名。

DeepSmart Team介绍

罗志鹏:微软 Bing 搜索广告算法工程师,北京大学软件工程专业硕士,专注于深度学习技术在 NLP、广告相关性匹配、CTR 预估等方面的研究及应用。 

黄坚强:北京大学软件工程专业硕士在读,擅长特征工程、AutoML、自然语言处理深度学习

团队成员曾经获奖记录:

  • CIKM Cup 2018 - 1st place 

  • KDD Cup 2018 (Second 24-Hour Prediction Track) - 1st place 

  • KDD Cup 2018 (Last 10-Day Prediction Track) - 1st place

  • Weibo Heat Prediction - 1st place

  • Shanghai BOT Big Data Application Competition - 1st place

  • Daguan Text Classification - 1st place

DeepSmart 团队在 Feed-Back 阶段的 5 项测试任务中斩获了 4 项第一、1 项第二的优异成绩,其中 4 项任务的 AUC 指标大幅度胜出。官方排名规则是把5个任务的 Rank(在所有队伍中的排名)值进行平均做为最后的排名依据,DeepSmart Team 的 Rank 平均指标为 1.2,在所有队伍中具有显著的领先优势。

▲ 图1. Feed-Back阶段排行榜

榜单链接:https://competitions.codalab.org/competitions/20203#results

大赛简介

许多实际应用程序的开发依赖于机器学习,然而这些程序的开发人员却并不都具备专业的机器学习算法研发能力,因而非常需要部署 AutoML 算法来自动进行学习。另外,有些应用中的数据只能分批次获取,例如每天、每周、每月或每年,并且数据分布随时间的变化相对缓慢。

这些原因要求 AutoML 具备持续学习或者终生学习的能力。这一类的典型问题包括客户关系管理、在线广告、推荐、情感分析、欺诈检测、垃圾邮件过滤、运输监控、计量经济学、病人监控、气候监测、制造等。本次 AutoML for Lifelong Machine Learning 竞赛将使用从这些真实应用程序中收集的大规模数据集。

相比于与之前的 AutoML 比赛,本次比赛的重点是概念漂移,即不再局限于简单的 i.i.d. 假设。要求参与者设计一种能够自主(无需任何人为干预)开发预测模型的计算机程序,利用有限的资源和时间,在终身机器学习环境下进行模型训练和评估。

这次竞赛主要有以下难点:

• 算法可扩展性:比赛提供的数据集比之前组织的竞赛大 10 到 100 倍;

• 不同的特征类型:包括各种特征类型(连续,二元,顺序,分类,多值分类,时间);

• 概念漂移:数据分布随着时间的推移而缓慢变化;

• 终身环境:本次比赛中包含的所有数据集按时间顺序分为 10 批,这意味着所有数据集中的实例批次按时间顺序排序(请注意,一批中的实例不保证按时间顺序排列)。参与者的算法需要基于前面批次的数据进行训练来预测后一批次的数据,从而测试算法适应数据分布变化的能力。测试后,才能把当前的测试集纳入训练数据中。

本次比赛分为 Feed-Back 阶段Blind-Test 阶段: 

Feed-Back 阶段:反馈阶段是代码提交的阶段,可以在与第二阶段的数据集具有相似性质的 5 个数据集上进行训练。最终代码提交将转发到下一阶段进行最终测试。 

Blind-Test 阶段:该阶段不需要提交代码。系统自动使用上一阶段的最后一次提交的代码对 5 个新数据集进行盲测。代码将自动进行训练和预测,无需人工干预。最终得分将通过盲测的结果进行评估。

Feed-Back阶段Top队伍方案具有重要价值

根据大赛主办方申明的规则,Blind-Test 阶段与 Feed-Back 阶段使用可比的数据集,在 Blind-Test 阶段,参赛者在 Feed-Back 阶段最后提交的代码将在 5 个新数据集进行盲测,但是最终 Top 6 中的第 1、2、3、5、6 名的队伍都因为内存超过 16G 的限制而未能在 Blind-Test 阶段得到有效成绩。

DeepSmart team 在 Feed-Back 阶段的 5 个数据集中内存使用峰值为 8G 左右,但是在 Blind-Test 中也因超出了 16G 的限制而无缘 Blind-Test 榜单。这导致 Feed-Back 阶段的许多有重要价值的解决方案由于内存溢出而在 Blind-Test 阶段拿不到得分而无法参与排名。

从 Blind-Test 榜单来看总的测试排名结果比较稳定,与 Feed-Back 差别不大,但由于 1、2、3、5、6 名在五个解决方案中某个更多特征或更大数据集的任务上因内存溢出而没有得分使得 autodidact.ai 从第 7 上升到第一名。

对比 DeepSmart 团队与 Blind-Test 阶段 Top 3 的队伍所取得的结果,在 5 项任务的平均 AUC 指标上 DeepSmart 比 Top 3 队伍分别高出 7.004%8.488%10.578%。与 Top 3 队伍表现最好的任务相比,DeepSmart 比 Top 3 队伍分别高出 4.01%3.85%6.11%。与 Top 3 队伍表现最差的任务相比,DeepSmart 比 Top 3 队伍分别高出 12.48%12.47%14.49%

AUC 指标是一项相对而言很难提升的指标,通常在竞赛中 top 队伍只能在该指标上拉开千分位、万分位的差距,而 DeepSmart team 在 5 项任务中领先 Blind-Test 阶段 Top 3 队伍 3.85-14.49%,具有压倒性的优势。

从表格中也可以观察到 Feed-Back 的 5 个任务的平均 AUC 排名和 Blind-Test 基本保持一致,如果 Top 队伍能够获得得分最终 Blind-Test 榜单很可能会有巨大变化。

从以上分析来看,Feed-Back 阶段的解决方案具有重要价值,所以举办方承认了 Feed-Back 阶段的解决方案的价值,向前三名分别授予了奖牌和证书,并且邀请他们参加 NeurIPS 会议进行解决方案分享。虽然他们没有去现场分享,但在这里 DeepSmart 团队将把他们的解决方案分享给大家。

DeepSmart团队解决方案

我们团队基于所给数据实现了一个 AutoML 框架,包括自动特征工程、自动特征选择、自动模型调参、自动模型融合等步骤,并且利用了多种策略对运行时间进行了有效的控制,以确保解决方案能在限制时间内通过。然而出乎我们的意料,最终我们的解决方案却由于内存不足而无缘最终排行榜。

▲ 图2. DeepSmart AutoML框架

自动特征工程

目前,在大部分机器学习工业界应用中,数据和特征对于模型往往是最为关键的。在现有的 AutoML 框架中,大部分特征的提取是通过数值特征进行高阶组合,它们的模型很难提取出跟时序问题或者概念漂移有关的关键特征,然而现实中存在大量的时序问题,而且往往带有概念漂移。

我们构建的自动特征工程不仅是基于数值特征做横向高阶组合,同时我们基于分类变量、数值变量、时间变量、多值分类变量自动提取跨时间和样本的横向及纵向高阶组合。这是我们团队所做出的不同于以往模型的自动特征工程方案,同是也是我们在比赛中能取得显著优势的重要因素。

自动特征选择

高阶组合往往容易导致生成大量特征,但我们通过构建自动快速特征选择来提取重要特征,这能极大地加速我们的特征工程,同时也极大地减少模型所使用的特征总量。

自动模型调参

我们采用 GBDT 模型,通过验证集调整模型学习率、叶子结点、树的深度等。由于时间有限,我们只能进行较少次的模型调参及验证,这三个参数对于 GBDT 的影响较大,能取得较为显著的效果提升。

由于数据是极度不平衡的,有的数据集甚至只有几千个正样本,负样本却能达到几十万个。所以,我们在树提升的过程中使用了不同的行采样方法。

在现有的树提升模型中,他们对正负样本采用同一个行采样率来控制采样。我们使用不同的正负样本行采样率,以使得模型可以使用足够多的正样本和合适的负样本。它不仅可以大大减少模型的运行时间,同时模型也可以取得更好的效果。

自动模型融合

基于所给时间,我们使用不同的行采样及列采样来训练多个不同的模型,这不仅仅更加充分的利用了样本,也使得每个模型使用的数据和特征具有充分的差异性,同时大大减少了过拟合的风险。

总结

AutoML 的发展空间还很大,目前大部分工业界机器学习问题都需要专业人士不断重复特征工程特征选择、模型调参及模型训练等过程,需要耗费大量的人力成本及时间成本才能产生一个较为有效的模型。 

本次 AutoML 竞赛中,参赛者们不仅从竞赛中学到了很多,也间接地能推动了 AutoML 的发展。随着更多 AutoML 学术上的探讨以及相关比赛的出现,我们相信 AutoML 能在学术界及工业界中得到快速发展。我们将进一步完善这一 AutoML 框架,争取能够将其应用于更多实际问题中。 

最后感谢主办方提供高质量的数据和竞赛平台,也给我们提供了在 AutoML 领域中学习和实践的机会。感谢所有的参赛选手,让我们不断努力把效果做到极致。祝贺所有的 Top 队伍!愿下一届 AutoML 竞赛办得更加成功!

PaperWeekly
PaperWeekly

推荐、解读、讨论和报道人工智能前沿论文成果的学术平台。

工程AutoMLNIPS
2
相关数据
Microsoft机构

微软是美国一家跨国计算机科技公司,以研发、制造、授权和提供广泛的计算机软件服务为主。总部位于美国华盛顿州的雷德蒙德,最为著名和畅销的产品为Microsoft Windows操作系统和Microsoft Office办公室软件,以及Xbox的游戏业务。微软是美国《财富》杂志2015年评选的世界500强企业排行榜中的第95名。

https://www.microsoft.com/en-us/about
第四范式机构

第四范式成立于2014年9月,是企业人工智能的行业先驱者与领导者,中国以平台为中心的决策型AI市场的最大参与者。公司以“AI决策,企业转型新范式”为品牌理念,提供端到端的企业级人工智能解决方案,使企业实现人工智能快速规模化落地,发掘数据隐含规律,全面提升企业的决策能力。公司服务的行业包括但不限于金融、零售、制造、能源电力、电信及医疗。第四范式的产品旨在为企业提供端到端的人工智能解决方案,满足企业在AI建设过程中对应用、平台和基础设施的需求,让企业可以轻松构建量身定制的人工智能系统,将机器学习、应用、决策和评估的流程自动化,有着快速简易建模、提供低代码或无代码开发环境等特点。此外,第四范式还能为用户提供支撑人工智能应用运行的基础设施,即第四范式企业级软件定义算力平台。

https://www.4paradigm.com
深度学习技术

深度学习(deep learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。 深度学习是机器学习中一种基于对数据进行表征学习的算法,至今已有数种深度学习框架,如卷积神经网络和深度置信网络和递归神经网络等已被应用在计算机视觉、语音识别、自然语言处理、音频识别与生物信息学等领域并获取了极好的效果。

机器学习技术

机器学习是人工智能的一个分支,是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。机器学习理论主要是设计和分析一些让计算机可以自动“学习”的算法。因为学习算法中涉及了大量的统计学理论,机器学习与推断统计学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。

参数技术

在数学和统计学裡,参数(英语:parameter)是使用通用变量来建立函数和变量之间关系(当这种关系很难用方程来阐述时)的一个数量。

学习率技术

在使用不同优化器(例如随机梯度下降,Adam)神经网络相关训练中,学习速率作为一个超参数控制了权重更新的幅度,以及训练的速度和精度。学习速率太大容易导致目标(代价)函数波动较大从而难以找到最优,而弱学习速率设置太小,则会导致收敛过慢耗时太长

验证集技术

验证数据集是用于调整分类器超参数(即模型结构)的一组数据集,它有时也被称为开发集(dev set)。

特征工程技术

特征工程是利用数据所在领域的相关知识来构建特征,使得机器学习算法发挥其最佳的过程。它是机器学习中的一个基本应用,实现难度大且代价高。采用自动特征工程方法可以省去采用人工特征工程的需求。Andrew Ng 说“挖掘特征是困难、费时且需要专业知识的事,应用机器学习其实基本上是在做特征工程。”

大数据技术技术

大数据,又称为巨量资料,指的是传统数据处理应用软件不足以处理它们的大或复杂的数据集的术语。

分类问题技术

分类问题是数据挖掘处理的一个重要组成部分,在机器学习领域,分类问题通常被认为属于监督式学习(supervised learning),也就是说,分类问题的目标是根据已知样本的某些特征,判断一个新的样本属于哪种已知的样本类。根据类别的数量还可以进一步将分类问题划分为二元分类(binary classification)和多元分类(multiclass classification)。

过拟合技术

过拟合是指为了得到一致假设而使假设变得过度严格。避免过拟合是分类器设计中的一个核心任务。通常采用增大数据量和测试样本集的方法对分类器性能进行评价。

自然语言处理技术

自然语言处理(英语:natural language processing,缩写作 NLP)是人工智能和语言学领域的分支学科。此领域探讨如何处理及运用自然语言;自然语言认知则是指让电脑“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。

特征选择技术

在机器学习和统计学中,特征选择(英语:feature selection)也被称为变量选择、属性选择或变量子集选择。 它是指:为了构建模型而选择相关特征(即属性、指标)子集的过程。

批次技术

模型训练的一次迭代(即一次梯度更新)中使用的样本集。

推荐文章
暂无评论
暂无评论~