The Transformer has been successfully used in medical image segmentation due to its excellent long-range modeling capabilities. However, patch segmentation is necessary when building a Transformer class model. This process may disrupt the tissue structure in medical images, resulting in the loss of relevant information. In this study, we proposed a Heterogeneous Swin Transformer with Multi-Receptive Field (HST-MRF) model based on U-shaped networks for medical image segmentation. The main purpose is to solve the problem of loss of structural information caused by patch segmentation using transformer by fusing patch information under different receptive fields. The heterogeneous Swin Transformer (HST) is the core module, which achieves the interaction of multi-receptive field patch information through heterogeneous attention and passes it to the next stage for progressive learning. We also designed a two-stage fusion module, multimodal bilinear pooling (MBP), to assist HST in further fusing multi-receptive field information and combining low-level and high-level semantic information for accurate localization of lesion regions. In addition, we developed adaptive patch embedding (APE) and soft channel attention (SCA) modules to retain more valuable information when acquiring patch embedding and filtering channel features, respectively, thereby improving model segmentation quality. We evaluated HST-MRF on multiple datasets for polyp and skin lesion segmentation tasks. Experimental results show that our proposed method outperforms state-of-the-art models and can achieve superior performance. Furthermore, we verified the effectiveness of each module and the benefits of multi-receptive field segmentation in reducing the loss of structural information through ablation experiments.


翻译:Transformer 由于其出色的远程建模能力,已经成功地应用于医学图像分割。然而,构建 Transformer 类模型时需要进行补丁分割。这个过程可能会破坏医学图像中的组织结构,导致相关信息的丢失。在本研究中,我们提出了一种基于 U 型网络的异构 Swin Transformer with Multi-Receptive Field (HST-MRF) 模型,用于医学图像分割。主要目的是通过在不同的感受野下融合补丁信息,解决补丁分割引起的结构信息丢失问题。异构 Swin Transformer (HST) 是核心模块,通过异构注意力实现多重感受野补丁信息的交互,并将其传递到下一个阶段进行渐进式学习。我们还设计了一个两阶段的融合模块,多模态双线性池化 (MBP),以辅助 HST 进一步融合多重感受野信息,并组合低级和高级语义信息来准确定位病变区域。此外,我们还开发了自适应补丁嵌入 (APE) 和软通道注意力 (SCA) 模块,在获取补丁嵌入和过滤通道特征时保留更多有价值的信息,从而提高模型分割质量。我们在多个数据集上评估了 HST-MRF 模型用于息肉和皮肤病变分割任务。实验结果表明,我们提出的方法优于现有的最先进模型,并且可以实现卓越的性能。此外,我们通过消融实验验证了每个模块的有效性和多重感受野分割的优势,以减少结构信息的损失。

0
下载
关闭预览

相关内容

用于识别任务的视觉 Transformer 综述
专知会员服务
64+阅读 · 2023年2月25日
【KDD2022】自监督超图Transformer推荐系统
专知会员服务
33+阅读 · 2022年8月1日
【CVPR2022】EDTER:基于Transformer的边缘检测(CVPR2022)
专知会员服务
31+阅读 · 2022年3月18日
专知会员服务
62+阅读 · 2021年7月25日
专知会员服务
56+阅读 · 2021年1月26日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Arxiv
12+阅读 · 2021年11月1日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
W-net: Bridged U-net for 2D Medical Image Segmentation
Arxiv
19+阅读 · 2018年7月12日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员