Transformer, which can benefit from global (long-range) information modeling using self-attention mechanisms, has been successful in natural language processing and 2D image classification recently. However, both local and global features are crucial for dense prediction tasks, especially for 3D medical image segmentation. In this paper, we for the first time exploit Transformer in 3D CNN for MRI Brain Tumor Segmentation and propose a novel network named TransBTS based on the encoder-decoder structure. To capture the local 3D context information, the encoder first utilizes 3D CNN to extract the volumetric spatial feature maps. Meanwhile, the feature maps are reformed elaborately for tokens that are fed into Transformer for global feature modeling. The decoder leverages the features embedded by Transformer and performs progressive upsampling to predict the detailed segmentation map. Experimental results on the BraTS 2019 dataset show that TransBTS outperforms state-of-the-art methods for brain tumor segmentation on 3D MRI scans. Code is available at https://github.com/Wenxuan-1119/TransBTS


翻译:使用自我注意机制进行全球(长程)信息建模的变异器可受益于全球(长程)信息建模,最近已经在自然语言处理和2D图像分类方面取得了成功。然而,本地和全球特征对于密集的预测任务,特别是3D医学图像分割至关重要。在本文中,我们首次利用3DCNN的变异器进行MRI脑图解分解,并提议基于编码器脱码器结构的名为 TransBTS的新网络。为了获取本地的 3D 上下文信息,编码器首先使用 3D CNN 来提取体积空间特征地图。同时,对地貌图进行详细修改,用于输入到变异器的标志,用于全球特征建模。解码器利用变异器嵌的特征并进行逐步升级,以预测详细的分解图。 BRATS 2019 数据集的实验结果显示, TransBTSTS超越了3D MRI 扫描的脑肿瘤分解方法。代码可在 https://github.com/Wensuan-1119/TranstystratTS.

2
下载
关闭预览

相关内容

【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
专知会员服务
25+阅读 · 2020年12月17日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
Pytorch视频分类教程
专知
6+阅读 · 2019年5月25日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
《pyramid Attention Network for Semantic Segmentation》
统计学习与视觉计算组
44+阅读 · 2018年8月30日
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
VIP会员
Top
微信扫码咨询专知VIP会员