In the real world, medical datasets often exhibit a long-tailed data distribution (i.e., a few classes occupy most of the data, while most classes have rarely few samples), which results in a challenging imbalance learning scenario. For example, there are estimated more than 40 different kinds of retinal diseases with variable morbidity, however with more than 30+ conditions are very rare from the global patient cohorts, which results in a typical long-tailed learning problem for deep learning-based screening models. In this study, we propose class subset learning by dividing the long-tailed data into multiple class subsets according to prior knowledge, such as regions and phenotype information. It enforces the model to focus on learning the subset-specific knowledge. More specifically, there are some relational classes that reside in the fixed retinal regions, or some common pathological features are observed in both the majority and minority conditions. With those subsets learnt teacher models, then we are able to distill the multiple teacher models into a unified model with weighted knowledge distillation loss. The proposed framework proved to be effective for the long-tailed retinal diseases recognition task. The experimental results on two different datasets demonstrate that our method is flexible and can be easily plugged into many other state-of-the-art techniques with significant improvements.


翻译:在现实世界中,医疗数据集往往出现长期的数据分配(即,少数几类占大多数数据,而大多数类则很少有抽样),从而形成具有挑战性的不平衡学习情景。例如,估计有40多种不同的视网膜疾病,发病率可变,但全球病人组群很少发现30以上的情况,导致深层次学习筛选模式存在典型的长期尾细学习问题。在这个研究中,我们建议通过根据先前的知识,将长尾数据分为多个类子子,如区域和人型信息。它实施模式,将重点放在学习子类特定知识上。更具体地说,有些关系类存在于固定的视网区,或者在多数和少数群体条件下都观察到一些常见的病理特征。随着这些子类教师模型的学习,我们就可以将多个教师模型转化为一个具有加权知识蒸馏损失的统一模型。拟议的框架对于长期尾细细的视网膜疾病识别技术来说是有效的,并且可以很容易地将其他技术升级的实验结果展示为其他方法。不同的实验性结果可以证明,不同的实验性方法可以证明我们有其他方法。

1
下载
关闭预览

相关内容

【陈天奇】TVM:端到端自动深度学习编译器,244页ppt
专知会员服务
85+阅读 · 2020年5月11日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
90+阅读 · 2019年10月16日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
已删除
inpluslab
8+阅读 · 2019年10月29日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年6月5日
Arxiv
6+阅读 · 2020年2月15日
VIP会员
相关资讯
已删除
inpluslab
8+阅读 · 2019年10月29日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员