A deep neural network trained on noisy labels is known to quickly lose its power to discriminate clean instances from noisy ones. After the early learning phase has ended, the network memorizes the noisy instances, which leads to a degradation in generalization performance. To resolve this issue, we propose MARVEL (MARgins Via Early Learning), where we track the goodness of "fit" for every instance by maintaining an epoch-history of its classification margins. Based on consecutive negative margins, we discard suspected noisy instances by zeroing out their weights. In addition, MARVEL+ upweights arduous instances enabling the network to learn a more nuanced representation of the classification boundary. Experimental results on benchmark datasets with synthetic label noise show that MARVEL outperforms other baselines consistently across different noise levels, with a significantly larger margin under asymmetric noise.


翻译:众所周知,一个在噪音标签上受过训练的深层神经网络很快丧失了对噪音标签进行区分的权力。 在早期学习阶段结束后,网络回忆起了吵闹事件,导致一般表现的退化。为了解决这个问题,我们提议MARVEL(MARGINS Via Aidlear Learning)(MARVEL)(MARVEL)(MARVER)(MARVER)(MARGins Via Aidentlearn Learning)(MARVER)(MARVEL)(MARVEL)(MARVER)(超重)(MARVAL)(超重)(MARVAL)(超重)(MARVEL)(超重)(MARVER)(MARVER)(超重)(T)(超重)(SARVER)(T)(PER)(超重)(超重,使得网络能够了解更细的分类界限的表达方式。合成标签噪音的实验结果显示,MARVEL(MARVEL(MARVEL)(MAR)(MARVER)(C)(C)(C)(C)(MARVER)(C)(N)(P)(P)(N)(N)(N)(N)(N)(N)(N)(P)(P)(N)(N)(N)(N)(N)(P)(P)(P)(P)(N)(N)(P)(P)(P)(T)(T)(T)(T)(T)(PER)(N)(N)(NUT)(N)(P)(P)(P)(P)(P)(N)(P)(N)(P)(P)(P)(P)(P)(PL)(PL)(N)(N)(PL)(L)(N)(N)(P)(P)(PR)(P)(N)(N)(N)(N)(N)(N)(N)(P)(N)(N)(N)(G)(G)(P

0
下载
关闭预览

相关内容

【AAAI2021】信息瓶颈和有监督表征解耦
专知会员服务
20+阅读 · 2021年1月27日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
已删除
将门创投
11+阅读 · 2019年7月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Arxiv
0+阅读 · 2021年3月25日
Meta Learning for Causal Direction
Arxiv
5+阅读 · 2020年7月6日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
VIP会员
相关资讯
已删除
将门创投
11+阅读 · 2019年7月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员