解读 | CVPR2017精彩论文解读:主动学习的主动性和增量性

2017 年 7 月 30 日 AI科技评论 刘凯

AI 科技评论按:继昨天来自论文一作的“主动学习增量学习”论文解读文章后,我们还收到了一篇来自宜远智能首席科学家刘凯的论文解读,梳理了论文的主要创新点。今天发出供大家共同讨论,同时也欢迎 AI 科技评论的读者给我们投稿,给更多人介绍你们眼中的精彩论文、分享你们对论文优缺点的评价。

下文是宜远智能的首席科学家刘凯对此次大会收录的《用于生物医学图像分析的精细调节卷积神经网络:主动性&增量性》(Fine-tuning Convolutional Neural Networks for Biomedical Image Analysis: Actively and Incrementally)一文进行的解读。

文章介绍:

这篇主要针对医学图像处理领域标注数据匮乏的问题,如何通过卷积神经网络(CNN)的Fine-tune和主动学习(Active Learning)来解决。使用CNN进行生物医学图像分析在最近几年得到了比较多的关注,但面临的一个问题是缺乏大量的标注数据,相比imagenet,对医学图像进行标注需要大量的专业背景知识,为了节约标注的成本和时间,这篇论文提供了一个新型的方法AIFT(Active,Incremental Fine-Tuning),把主动学习和迁移学习集成到一个框架。AIFT算法开始是直接使用一个预训练从未标注数据里找一些比较值得标注的样本,然后模型持续的加入新标注的数据,一直做微调。

AIFT方法是在CAD(计算机辅助诊断)系统的环境下使用,CAD可以生成候选集U,都是未标注数据,其中每一个候选样本(candidate)通过数据增强可以生成一系列的patches,由于这些patches来自于同一个候选样本,所以它们的标签跟该候选样本一致。

AIFT方法的主要创新点体现在如下几个方面:

  • 持续性的fine-tuning

一开始标注数据集L是空的,我们拿一个已经训练好了的CNN(比如AlexNet),让它在未标注数据集U中选b个候选集来找医生标注,这新标注的候选集将会放到标注数据集L中,来持续的增量式fine-tune那个CNN直到合格,通过实验发现,持续的fine-tuning CNN相比在原始的预训练中重复性的fine-tuning CNN,可以让数据集收敛更快。

  •  通过Active learning选择候选样本

主动学习的关键是找到一个标准来评判候选样本是否值得标注,在当前CNN中,一个候选样本生成的所有patches都应该是有差不多的预测。所以我们可以先通过这个CNN来对每个候选样本的每个patch进行预测,然后对每个候选样本,通过计算patch的熵和patch之间KL距离来衡量这个候选样本。如果熵越高,说明包含更多的信息,如果KL距离越大,说明patch间的不一致性大,所以这两个指标越高,越有可能对当前的CNN优化越大。对每个矩阵都可以生成一个包含patch的KL距离和熵的邻接矩阵R。

  • 通过少数服从多数来处理噪音

我们普遍都会使用一些自动的数据增强的方法,来提高CNN的表现,但是不可避免的给某些候选样本生成了一些难的样本,给数据集注入了一些噪音。所以为了显著的提高我们方法的鲁棒性,我们依照于当前CNN的预测,对每个候选样本只选择一部分的patch来计算熵和多样性。首先对每个候选样本的所有patch,计算平均的预测概率,如果平均概率大于0.5,我们只选择概率最高的部分patch,如果概率小于0.5,选最低的部分patch,再基于已经选择的patch,来构建得分矩阵R。

  • 预测出的结果有不同的模式

对每个候选样本进行计算所有补丁的概率分布直方图,对于概率的分布有以下几种模式:

1、patch大部分集中在0.5,不确定性很高,大多数的主动学习算法都喜欢这种候选集。

2、比a还更好,预测从0-1分布均匀,导致了更高的不确定性,因为所有的patch都是通过同一个候选集数据增强得到,他们理论上应该要有差不多的预测。这种类型的候选集有明显优化CNN模型的潜力。

3、预测分布聚集在两端,导致了更高的多样性,但是很有可能和patch的噪声有关,这是主动学习中最不喜欢的样本,因为有可能在fine-tuning的时候迷惑CNN。

4、预测分布集中在一端(0或1),包含更高的确定性,这类数据的标注优先级要降低,因为当前模型已经能够很好的预测它们了。

5、在某些补丁的预测中有更高的确定性,并且有些还和离群点有关联,这类候选集是有价值的,因为能够平滑的改善CNN的表现,尽管不能有显著的贡献,但对当前CNN模型不会有任何伤害。

应用的创新:

上述方法被应用在了结肠镜视频帧分类和肺栓塞检测上,得到了比较好的效果。前者只用了800个候选样本就达到了最好的表现,只用了5%的候选样本就代表了剩下的候选样本,因为连续的视频帧通常都差不多。后者使用了1000个样本就达到了AlexNet做Fine-tune使用2200个随机样本的效果。

该工作的主要优势包括如下几点:

1、从一个完全未标注的数据集开始,不需要初始的种子标注数据。

2、通过持续的fine-tuning而不是重复的重新训练来一步一步改善学习器。

3、通过挖掘每一个候选样本的补丁的一致性来选择值得标注的候选集。

4、自动处理噪音

5、只对每个候选集中小数量的补丁计算熵和KL距离,节约了计算。

总结下来,该工作提出的方法显著的减低标注的工作量,并且有指导的选择哪些数据需要标注,同时降低了数据增强带来的噪声影响。这个方向在医学图像处理领域有非常大的价值,相信会得到越来越多的关注。

论文地址:http://openaccess.thecvf.com/content_cvpr_2017/papers/Zhou_Fine-Tuning_Convolutional_Neural_CVPR_2017_paper.pdf

刘凯博士将对 CVPR2017 收录的Joint Sequence Learning and Cross-Modality Convolution for 3D Biomedical Segmentation一文进行直播讲解,长按识别或扫描下方二维码,进入 AI研习社(公众号:okweiwu)微信交流群,8月1日(周二)晚八点,活动准时开始!

——————————————————————————

登录查看更多
2

相关内容

主动学习是机器学习(更普遍的说是人工智能)的一个子领域,在统计学领域也叫查询学习、最优实验设计。“学习模块”和“选择策略”是主动学习算法的2个基本且重要的模块。 主动学习是“一种学习方法,在这种方法中,学生会主动或体验性地参与学习过程,并且根据学生的参与程度,有不同程度的主动学习。” (Bonwell&Eison 1991)Bonwell&Eison(1991) 指出:“学生除了被动地听课以外,还从事其他活动。” 在高等教育研究协会(ASHE)的一份报告中,作者讨论了各种促进主动学习的方法。他们引用了一些文献,这些文献表明学生不仅要做听,还必须做更多的事情才能学习。他们必须阅读,写作,讨论并参与解决问题。此过程涉及三个学习领域,即知识,技能和态度(KSA)。这种学习行为分类法可以被认为是“学习过程的目标”。特别是,学生必须从事诸如分析,综合和评估之类的高级思维任务。
专知会员服务
112+阅读 · 2020年6月26日
最新《医学图像深度语义分割》综述论文
专知会员服务
96+阅读 · 2020年6月7日
基于深度神经网络的少样本学习综述
专知会员服务
173+阅读 · 2020年4月22日
专知会员服务
88+阅读 · 2020年1月20日
BERT进展2019四篇必读论文
专知会员服务
68+阅读 · 2020年1月2日
2019年主动学习有哪些进展?答案在这三篇论文里
ACL 2019 | 微软8篇精选论文解读,一览最新研究进展
微软研究院AI头条
12+阅读 · 2019年6月28日
CVPR 2019 论文解读精选
AI研习社
7+阅读 · 2019年6月16日
CVPR 2018 论文解读(部分)
计算机视觉战队
5+阅读 · 2018年5月8日
一周精品论文分享-0325
深度学习与NLP
3+阅读 · 2018年3月28日
ICCV2017 论文解读:基于图像检索的行人重识别
极市平台
7+阅读 · 2017年11月15日
Deep Co-Training for Semi-Supervised Image Segmentation
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
4+阅读 · 2018年6月14日
Arxiv
5+阅读 · 2018年4月17日
VIP会员
相关VIP内容
专知会员服务
112+阅读 · 2020年6月26日
最新《医学图像深度语义分割》综述论文
专知会员服务
96+阅读 · 2020年6月7日
基于深度神经网络的少样本学习综述
专知会员服务
173+阅读 · 2020年4月22日
专知会员服务
88+阅读 · 2020年1月20日
BERT进展2019四篇必读论文
专知会员服务
68+阅读 · 2020年1月2日
相关论文
Top
微信扫码咨询专知VIP会员