Deep long-tailed learning, one of the most challenging problems in visual recognition, aims to train well-performing deep models from a large number of images that follow a long-tailed class distribution. In the last decade, deep learning has emerged as a powerful recognition model for learning high-quality image representations and has led to remarkable breakthroughs in generic visual recognition. However, long-tailed class imbalance, a common problem in practical visual recognition tasks, often limits the practicality of deep network based recognition models in real-world applications, since they can be easily biased towards dominant classes and perform poorly on tail classes. To address this problem, a large number of studies have been conducted in recent years, making promising progress in the field of deep long-tailed learning. Considering the rapid evolution of this field, this paper aims to provide a comprehensive survey on recent advances in deep long-tailed learning. To be specific, we group existing deep long-tailed learning studies into three main categories (i.e., class re-balancing, information augmentation and module improvement), and review these methods following this taxonomy in detail. Afterward, we empirically analyze several state-of-the-art methods by evaluating to what extent they address the issue of class imbalance via a newly proposed evaluation metric, i.e., relative accuracy. We conclude the survey by highlighting important applications of deep long-tailed learning and identifying several promising directions for future research.


翻译:深长的学习是视觉认知中最具挑战性的问题之一,其目的在于从大量经过长期分类分发的图像中培养出成绩良好的深层次模型。在过去十年中,深层学习已成为学习高质量图像展示的强有力识别模式,并导致在一般视觉认知方面取得显著突破。然而,长期分类失衡是实际视觉识别任务中常见的一个共同问题,往往限制了基于现实世界应用中深网络的识别模式的实际实用性,因为这些模式很容易偏向于占支配地位的班级,在尾端班上表现不佳。为解决这一问题,近年来进行了大量研究,在深长的远程学习领域取得了有希望的进展。考虑到该领域的迅速演变,本文旨在对长期深度学习的近期进展进行全面调查。具体地说,我们将现有的深长的学习研究分为三大类(即班级再平衡、信息增强和模块改进),并根据这一分类的详细程度审查这些方法。随后,我们从实证学角度分析了若干项未来阶段的准确性研究,通过新的学习方式来总结一系列重要指标性评估。

13
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
深度学习(deep learning)发展史
机器学习算法与Python学习
12+阅读 · 2018年3月19日
资源|斯坦福课程:深度学习理论!
全球人工智能
16+阅读 · 2017年11月9日
Arxiv
0+阅读 · 2021年12月5日
Arxiv
126+阅读 · 2020年9月6日
Image Segmentation Using Deep Learning: A Survey
Arxiv
43+阅读 · 2020年1月15日
Arxiv
53+阅读 · 2018年12月11日
Deep Learning for Generic Object Detection: A Survey
Arxiv
13+阅读 · 2018年9月6日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
5+阅读 · 2017年7月25日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
深度学习(deep learning)发展史
机器学习算法与Python学习
12+阅读 · 2018年3月19日
资源|斯坦福课程:深度学习理论!
全球人工智能
16+阅读 · 2017年11月9日
相关论文
Arxiv
0+阅读 · 2021年12月5日
Arxiv
126+阅读 · 2020年9月6日
Image Segmentation Using Deep Learning: A Survey
Arxiv
43+阅读 · 2020年1月15日
Arxiv
53+阅读 · 2018年12月11日
Deep Learning for Generic Object Detection: A Survey
Arxiv
13+阅读 · 2018年9月6日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
5+阅读 · 2017年7月25日
Top
微信扫码咨询专知VIP会员