Deep neural networks are increasingly applied in automated histopathology. Yet, whole-slide images (WSIs) are often acquired at gigapixel sizes, rendering them computationally infeasible to analyze entirely at high resolution. Diagnostic labels are largely available only at the slide-level, because expert annotation of images at a finer (patch) level is both laborious and expensive. Moreover, regions with diagnostic information typically occupy only a small fraction of the WSI, making it inefficient to examine the entire slide at full resolution. Here, we propose SASHA -- Sequential Attention-based Sampling for Histopathological Analysis -- a deep reinforcement learning approach for efficient analysis of histopathological images. First, SASHA learns informative features with a lightweight hierarchical, attention-based multiple instance learning (MIL) model. Second, SASHA samples intelligently and zooms selectively into a small fraction (10-20\%) of high-resolution patches to achieve reliable diagnoses. We show that SASHA matches state-of-the-art methods that analyze the WSI fully at high resolution, albeit at a fraction of their computational and memory costs. In addition, it significantly outperforms competing, sparse sampling methods. We propose SASHA as an intelligent sampling model for medical imaging challenges that involve automated diagnosis with exceptionally large images containing sparsely informative features. Model implementation is available at: https://github.com/coglabiisc/SASHA.


翻译:深度神经网络在自动化组织病理学中的应用日益广泛。然而,全玻片图像(WSI)通常以千兆像素级尺寸获取,导致在高分辨率下完整分析的计算成本过高。诊断标签大多仅在玻片级别可用,因为专家对更精细(区块)级别的图像进行标注既费力又昂贵。此外,具有诊断信息的区域通常仅占WSI的一小部分,使得以全分辨率检查整个玻片效率低下。为此,我们提出SASHA——一种基于序列化注意力的采样方法用于组织病理学分析,这是一种基于深度强化学习的高效组织病理学图像分析方法。首先,SASHA通过轻量级分层注意力多实例学习(MIL)模型学习信息特征。其次,SASHA智能采样并选择性地放大至高分辨率区块的一小部分(10-20%),以实现可靠的诊断。我们证明,SASHA在仅需部分计算和内存成本的情况下,与在高分辨率下完全分析WSI的最先进方法性能相当。此外,它显著优于其他稀疏采样方法。我们提出将SASHA作为一种智能采样模型,用于解决涉及自动化诊断的医学影像挑战,这些挑战通常涉及包含稀疏信息特征的超大型图像。模型实现可在以下网址获取:https://github.com/coglabiisc/SASHA。

0
下载
关闭预览

相关内容

专知会员服务
15+阅读 · 2021年7月21日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员