Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

机器之心编辑部报道

正视长尾挑战!颜水成、冯佳时团队发布首篇《深度长尾学习》综述

长尾学习是推动神经网络模型落地的重要范式。在这篇综述中,来自新加坡国立大学和 SEA AI Lab 的学者们首次系统地阐述了深度长尾学习及其方法和应用,并提出了一个新的评价指标以验证现存长尾学习方法对类别不平衡问题的解决能力。

深度长尾学习是视觉识别任务中最具挑战性的问题之一,旨在从大量遵循长尾类别分布的图像中训练出性能良好的深度神经网络模型。近年来,学者们对该问题开展了大量研究,并取得了可喜进展。鉴于该领域的飞速发展,在这篇综述中,来自新加坡国立大学和 SEA AI Lab 的颜水成、冯佳时团队对深度长尾学习的最新进展进行了系统性的梳理和分类讨论,并设计了一个新的评价指标对现存方法进行实验分析,同时也对未来的重要研究方向进行了展望。

图片


论文链接:https://arxiv.org/pdf/2110.04596.pdf

为什么要重视深度长尾学习?

近年来,深度学习已经成为人工智能领域中最重要的技术之一。因强大的数据特征表达能力,深度神经网络已经被成功应用到众多视觉识别任务中并取得了显著的突破,如图像分类,物体检测和语义分割等。深度神经网络的成功源于其大量的模型参数对任务模式的学习,而这一过程需要大量的标注数据进行模型训练。在传统视觉识别任务中,标注数据的类别分布往往受到人为调整而变得均衡,即不同类别的样本数量无明显差别。

而在实际应用中,自然采集的数据类别通常表现为长尾分布(如下图),即一小部分类别拥有大量的样本,而其余大部分类别只有较少的样本量。然而,这一类别不平衡问题往往使得深度神经网络的训练变得非常困难。如下图所示,在长尾数据下训练的模型容易偏向训练数据中的多数类,即多数类的特征空间往往大于少数类的特征空间,且分类决策边界会向少数类方向偏移以确保更好地分类多数类,这一现象往往导致深度模型在数据量有限的少数类上表现不佳。因此,直接使用经验风险最小化方法来训练深度模型无法处理具有长尾类别不平衡问题的实际应用,如人脸识别,物种分类,医学图像诊断,无人机检测等等。

图片


为了解决这一长尾类别不平衡问题,深度长尾学习旨在从大量遵循长尾类分布的图像中训练出性能良好的深度模型。鉴于类别不平衡问题在现实任务中十分广泛,并且训练数据和测试数据的类别分布差异会极大限制神经网络的实际应用,这一研究课题具有重要的现实意义,是推动深度神经网络实现模型落地的重要范式。

尽管深度长尾学习领域发展迅速,应运而生的大量论文却容易导致学者和算法工程师们迷失在知识的海洋中。为了解决这一问题,该论文首次对深度长尾学习进行了系统性的综述,梳理出了一条深度长尾学习的清晰脉络,从而帮助业界学者和专家更好地理解深度长尾学习,并推动该领域的蓬勃发展。

该综述首先详细地介绍了深度长尾学习的任务设定、数据集、衡量指标、主流网络结构、知名竞赛、以及与其他任务间的关系。随后,该文将现存方法进行分类梳理。如下图所示,现存方法被分为三个主要的类别(即类别重平衡、信息增强和网络模块改进),同时能够被进一步细分为九个子类别。基于该分类法,该论文对现存方法进行了详细的综述和讨论。

图片


其中经典的方法如下表所示。同时作者还整理了一个深度长尾学习论文列表:https://github.com/Vanint/Awesome-LongTailed-Learning

图片


此外,该综述还提出了一个新的经验衡量指标(相对精度),并以此对现存最优的长尾学习算法进行了实验,旨在更好地对比现存方法对类别不平衡问题的处理能力。最后,该文探讨了深度长尾学习的主要应用场景和重要的未来研究方向。

深度长尾学习的主要方法类别

类别重平衡:类别重平衡是长尾学习的主流方法之一,旨在对不同类别的数据量差异进行再平衡。该类方法可细分为类别重采样,类别代价敏感学习和对数几率调整。相较于其他的长尾学习范式,类别重平衡方法相对简单,却能获得相似甚至更好的性能。同时,部分的类别重平衡方法(尤其是代价敏感学习)对于解决长尾类别不平衡问题具有理论分析保证。这些优点使得该类方法成为解决实际长尾问题的重要工具。然而,该类方法的缺点在于,少数类的性能提升往往是以多数类的性能牺牲作为代价。尽管总体性能得到了提升,但该类方法无法本质地解决长尾问题中缺少数据信息的问题,尤其是在少数类上。

信息增强:基于信息增强的方法旨在引入额外信息来增强模型训练,从而提升模型在长尾数据上的学习性能。该类方法可细分为迁移学习和数据增强。因为引入了额外的信息,基于信息增强的方法能够在不损失多数类性能的情况下提升少数类性能。考虑到缺乏足够的少数类样本是长尾学习的一个关键问题,该类方法值得进一步探索。例如,数据增强是一项相对基础的技术,可以同时被应用到多种长尾学习任务中,这使得它非常具有实用性。但是,简单地应用现存经典的、不考虑类别差异的数据增强技术到长尾学习任务中是有局限的:即使长尾学习的整体性能获得提升,但因为多数类的数据量更多,导致多数类的数据增强也更多,从而进一步加剧了类别不平衡问题。因此,如何设计更好的针对深度长尾学习的数据增强方法是一个值得探索的问题。

网络模块提升:除了类别重平衡和信息增强方法以外,学者们也探索了如何在长尾学习中有针对性地提升网络模块,包括:(1)表示学习提升特征特征提取器,(2)分类器设计改进模型分类器,(3)解耦训练促进特征提取器和分类器的训练,(4)集成学习提升整体的网络结构。其中,表征学习和分类器设计是深度长尾学习的基本问题,值得进一步探索。解耦训练在最近的研究中越发受到关注;在该方案中,第二阶段的类平衡分类器微调能带来显着的性能提升,并不会引入太多额外的计算成本。对该类方法的一种批评是,累积的训练阶段会使解耦训练不太实用,难以直接与其他长尾问题中(如目标检测和实例分割)的经典方法相结合。尽管如此,解耦训练的想法在概念上很简单,因此可以很容易地在这些问题中用来设计新方法。最后,与其他类型的长尾学习方法相比,基于集成学习的方法通常在头类和尾类上都能获得更好的性能。这类方法的一个问题是,多个专家的使用会导致模型的计算成本增加。但是,该问题可以通过使用共享特征提取器来缓解,并且以效率为导向的专家分配策略和知识蒸馏策略也可以有效降低计算代价。

深度长尾学习的新评价指标

深度长尾学习旨在处理长尾类别不平衡问题以获得更好的模型性能,通常以测试集精度为衡量指标来评价长尾学习方法的性能及其处理类别不平衡问题的能力。然而,因为模型精度同时也受除类别不平衡问题之外的其他因素影响,所以测试集精度指标并不能准确反映不同方法在处理类别不平衡问题时的相对优势。例如,基于数据增强的长尾学习方法也会提升在类别平衡数据集上所训得到模型的测试精度;在这种情况下很难判断测试精度的提升是来自于类别不平衡问题的缓解还是来自更多数据信息的引入。这也启发大家重新思考:到底怎样才算真正解决长尾学习?为此,该综述提出了一个新的相对精度指标,用于消除非类别不平衡因素的影响,从而更好地衡量长尾学习算法对于类别不平衡问题的实际解决能力。基于这一指标,该综述开展实验对现存长尾学习算法进行了深入分析。


图片


深度长尾学习的未来方向

尽管深度长尾学习已经取得长足的进展,但依然存在许多开放性的问题以待进一步研究。

新方法探索:不依赖于标签统计频率的类别重平衡;基于无标签数据的迁移学习和半监督学习;适用于多个长尾学习任务的数据增强;提升全部类别性能的集成学习。

新任务设定探索:测试集类别分布未知的长尾学习;存在开放类别的长尾学习;联邦长尾学习;类增量长尾学习;多域长尾学习;鲁棒长尾学习;长尾回归;长尾视频学习。
理论长尾分布
相关数据
颜水成人物

颜水成,新加坡国立大学副教授、360集团副总裁、人工智能研究院院长、第十三批国家 "千人计划"专家。颜水成的主要研究领域包括计算机视觉、深度学习、信息检索应用与多媒体分析。他带领的团队曾提出的“Network in Network” ,对深度学习产生了很大的推动力,同时他的团队开发的”Purine”是全球第一个开源的支持多机多GPU的深度学习系统。

深度神经网络技术

深度神经网络(DNN)是深度学习的一种框架,它是一种具备至少一个隐层的神经网络。与浅层神经网络类似,深度神经网络也能够为复杂非线性系统提供建模,但多出的层次为模型提供了更高的抽象层次,因而提高了模型的能力。

推荐文章
暂无评论
暂无评论~