PaperWeekly

ECCV 2020 Spotlight | 多标签长尾识别前沿进展
ECCV 2020 Spotlight | 多标签长尾识别前沿进展

本文关注的是长尾分布下的多标签分类问题,并提出了一种分布平衡损失函数(Distribution-Balanced Loss),在 COCO-MLT 和 VOC-MLT 这两个人工构造的多标签长尾数据集上进行实验验证,取得了很好的效果。文章和代码均已公开。

人脸静默活体检测最新综述
人脸静默活体检测最新综述

活体检测在人脸识别中的重要环节。以前的大多数方法都将面部防欺骗人脸活体检测作为监督学习问题来检测各种预定义的演示攻击,这种方法需要大规模的训练数据才能涵盖尽可能多的攻击。

论文盘点:性别年龄分类器详解
论文盘点:性别年龄分类器详解

年龄和性别在社会交往中起着基础性的作用。随着社交平台和社交媒体的兴起,自动年龄和性别分类已经成为越来越多应用程序的相关内容。本文会盘点出近几年来关于深度年龄和性别识别的优质论文。

Self-training在目标检测任务上的实践
Self-training在目标检测任务上的实践

本文主要介绍一种半监督的方法——Self-training,其主要思路是:先利用有标签数据训练得到模型,然后对无标签数据进行预测,置信度高的数据可以用于加入训练集,继续训练,直到模型符合要求。

Funnel-Transformer:让Transformer更高效地处理长序列
Funnel-Transformer:让Transformer更高效地处理长序列

本文提出漏斗型(Funnel)Transformer,随着层数增加,模型在序列方向变窄,从而节约空间开销。 此外,该模型还可以像BERT一样用于预训练,不用改变训练方法。在句子级任务上的实验表明,Funnel-Transformer在相同的FLOPs和模型大小下能实现更好的效果。

BERT-of-Theseus:基于模块替换的模型压缩方法
BERT-of-Theseus:基于模块替换的模型压缩方法

本文介绍并实验了一种称为“BERT-of-Theseus”的 BERT 模型压缩方法,该方法的特点是简洁明了,纯粹通过替换操作来让小模型去学习大模型的行为,使得能在只有一个 loss 的情况下就能达到当前最优的模型压缩效果。

AIRAVATA:量化机器学习中的参数泄露
AIRAVATA:量化机器学习中的参数泄露

本文提出了一种新的概率框架 AIRAVATA 来估计模型抽取攻击中的信息泄漏。该框架抓住了由于实验的不确定性提取精确的目标模型是困难的事实,同时推断模型的超参数和随机性质的训练窃取目标模型的功能。