ACML 2022|三行代码解决长尾不平衡类别分类

2022 年 11 月 3 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨 王晋东
来源丨王晋东不在家
编辑丨极市平台

极市导读

 

该工作提出了一种 「简单而有效的边距校准方法 (Margin Calibration,MARC) 来校准边距以获得更平衡的预测分数」 ,从而提升分类性能。「只需三行代码」 就能实现MARC、其可学习参数只有2K(K为类别数)。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

长尾视觉识别任务对神经网络如何处理头部(常见)和尾部(罕见)类之间的不平衡预测提出了巨大挑战。模型倾向于将尾部类分类为头部类。虽然现有的研究侧重于数据重采样和损失函数工程,但在本文中,我们采用了不同的视角:分类间隔。我们研究了间隔(margin)和预测分数(logit)之间的关系,并凭经验观察到 「未校准的边距和预测分数呈正相关」。我们提出了一种 「简单而有效的边距校准方法 (Margin Calibration,MARC) 来校准边距以获得更平衡的预测分数」 ,从而提升分类性能。我们通过对常见长尾基准(包括 CIFAR-LT、ImageNet-LT、Places-LT 和 iNaturalist-LT)的广泛实验来验证MARC。实验结果表明,我们的MARC方法在这些基准上取得了良好的结果。此外,「只需三行代码」 就能实现MARC、其可学习参数只有2K(K为类别数)。我们希望这种简单的方法能够激发人们重新思考长尾视觉识别中未校准的边距与预测分数之间的关系。

文章已被机器学习会议ACML 2022录用,由东京工业大学、微软STCA、南京大学、及微软亚洲研究院共同完成,第一作者为东京工业大学王一栋同学。

论文链接:https://arxiv.org/pdf/2112.07225.pdf

代码即将开源。

间隔与预测分数的关系

在本文中,我们研究了 「间隔(Margin)」「预测分数 (logits)」 之间的关系,这是主导长尾绩效的关键因素。

如下图所示,我们凭经验发现边距和预测分数与每个类的基数相关(一个类的基数即该类别拥有数据的数量)。具体来说,在校准之前,头类往往比尾类具有更大的边距和预测分数。因此,需要校准这种不平衡的边距以获得平衡的预测分数去避免未校准的边距对分类性能产生负面影响。

间隔与预测分数的关系

间隔校准方法MARC: Margin Calibration

我们提出一个简单的间隔校准方法 「MARC (margin calibration)」 来解决长尾问题。

具体而言, 我们训练了一个简单的特定于类别 的边距校准模型, 其中原始边距 固定, 是可学习参数:

的推理公式如下, 最终是由预测分数(logit ) 除以线性分类器 (Linear Classifier Head) 的权重 (Weight) 的模 ( 取得,其中 为线性分类器的偏差 (bias) :

since ,

因此,校准后的预测分数为

其中 是固定的原始预测分数。

此外, 我们还对不同类进行加权操作, 最终通过训练 来获得更平衡的预测分数。

核心算法:仅需三行代码

MARC可以被分类为决策边界(间隔)调整算法,其与之前的一些同类算法如Decouple (ICLR'20, 评论区提到的)和DisAlign等的区别如下:

MARC与其他同类算法的区别

MARC的核心算法如下图所示,核心部分如红框所示。「仅需三行代码」 即可实现MARC:

MARC训练代码

实验

分类结果

实验表格如下。我们在众多被广泛使用的长尾分类图像数据集中进行了对比。从实验结果可以看出MARC相比于其他方法取得了良好的性能,并且MARC十分容易实现。

MARC在CIFAR-LT和iNaturalist-LT上的结果
MARC在ImageNet-LT和Places-LT上的结果

复杂度

下图是MARC和另一个决策边界调整算法Dis-Align的对比试验,可以发现MARC取得了更平衡的边距和预测分数。

MARC与同类算法的复杂度与结果对比

总结

本文研究了长尾视觉识别问题。具体来说,我们发现头类往往比尾类具有更大的边距和预测分数。受此发现的启发,我们提出了一个只有 2K(K是类别数)可学习参数的边距校准函数,以获得长尾视觉识别中的平衡预测分数。尽管我们的方法实现起来非常简单,但大量实验表明,与以前的方法相比,MARC在不改变模型表示的情况下取得了有利的结果。我们希望我们对预测分数和边距的研究能够为模型表示和边距校准的联合优化提供经验。未来,我们的目标是发展一个统一的理论来更好地支持我们的算法设计,并将该算法应用于更多的长尾应用。

Reference

[1] 本文所介绍的论文:Wang et al. Margin calibration for long-tailed visual recognition. Asian Conference on Machine Learning (ACML) 2022.

公众号后台回复“直播”获取极市直播系列PPT下载

△点击卡片关注极市平台,获取 最新CV干货


极市干货
算法竞赛:往届获奖方案总结以及经验详解|ACCV2022国际细粒度图像分析挑战赛
技术综述 BEV 学术界和工业界方案、优化方法与tricks综述 PyTorch下的可视化工具(网络结构/训练过程可视化)
极视角动态:极视角与华为联合发布基于昇腾AI的「AICE赋能行业解决方案」算法误报怎么办?自训练工具使得算法迭代效率提升50%!

CV技术社群邀请函 #




△长按添加极市小助手
添加极市小助手微信(ID : cvmart2)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


极市&深大CV技术交流群已创建,欢迎深大校友加入,在群内自由交流学术心得,分享学术讯息,共建良好的技术交流氛围。


点击阅读原文进入CV社区

收获更多技术干货

登录查看更多
2

相关内容

Asian Conference on Machine Learning(ACML)是机器学习领域的国际会议。它旨在为机器学习和相关领域的研究人员提供一个领先的国际论坛,分享他们的新想法和成就。官网链接:http://acml-conf.org/default.aspx?AspxAutoDetectCookieSupport=1
CVPR2022 Oral | 多模态学习中的贡献不平衡问题
专知会员服务
26+阅读 · 2022年4月21日
【NeurIPS2021】由相似性迁移的弱样本细粒度分类
专知会员服务
20+阅读 · 2021年11月11日
专知会员服务
32+阅读 · 2021年7月27日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
新加坡南洋理工最新37页《零样本学习综述》论文
专知会员服务
109+阅读 · 2019年10月20日
一文解决样本不均衡(全)
极市平台
5+阅读 · 2022年1月9日
AAAI'21 | 对比自监督的图分类
图与推荐
8+阅读 · 2021年10月28日
2019 DR loss(样本不平衡问题)目标检测论文阅读
极市平台
11+阅读 · 2019年10月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
Arxiv
12+阅读 · 2021年10月22日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员