We propose a novel Synergistic Attention Network (SA-Net) to address the light field salient object detection by establishing a synergistic effect between multi-modal features with advanced attention mechanisms. Our SA-Net exploits the rich information of focal stacks via 3D convolutional neural networks, decodes the high-level features of multi-modal light field data with two cascaded synergistic attention modules, and predicts the saliency map using an effective feature fusion module in a progressive manner. Extensive experiments on three widely-used benchmark datasets show that our SA-Net outperforms 28 state-of-the-art models, sufficiently demonstrating its effectiveness and superiority. Our code will be made publicly available.


翻译:我们建议建立一个新颖的协同关注网络(SA-Net),通过在具有高级关注机制的多模式特征之间建立协同效应,解决光外显眼物体探测问题。 我们的SA-Net通过3D进化神经网络利用核心堆叠的丰富信息,用两个串联的协同关注模块解码多模式光场数据的高级别特征,并以渐进的方式预测使用有效特征聚合模块的显眼地图。 对三个广泛使用的基准数据集的广泛实验表明,我们的SA-Net优于28个最先进的模型,充分证明了其有效性和优越性。我们的代码将被公诸于众。

0
下载
关闭预览

相关内容

Attention机制最早是在视觉图像领域提出来的,但是真正火起来应该算是google mind团队的这篇论文《Recurrent Models of Visual Attention》[14],他们在RNN模型上使用了attention机制来进行图像分类。随后,Bahdanau等人在论文《Neural Machine Translation by Jointly Learning to Align and Translate》 [1]中,使用类似attention的机制在机器翻译任务上将翻译和对齐同时进行,他们的工作算是是第一个提出attention机制应用到NLP领域中。接着类似的基于attention机制的RNN模型扩展开始应用到各种NLP任务中。最近,如何在CNN中使用attention机制也成为了大家的研究热点。下图表示了attention研究进展的大概趋势。
专知会员服务
15+阅读 · 2021年6月6日
专知会员服务
19+阅读 · 2021年5月1日
专知会员服务
21+阅读 · 2021年3月9日
专知会员服务
17+阅读 · 2020年9月6日
Yoshua Bengio,使算法知道“为什么”
专知会员服务
7+阅读 · 2019年10月10日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
Relation Networks for Object Detection 论文笔记
统计学习与视觉计算组
16+阅读 · 2018年4月18日
概率论之概念解析:边缘化(Marginalisation)
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
10+阅读 · 2019年1月24日
Arxiv
4+阅读 · 2018年3月19日
VIP会员
Top
微信扫码咨询专知VIP会员