视觉感知受到注意力集中的严重影响。由于有限的资源,众所周知,神经表征偏向于出席地点。利用同时进行的眼球追踪和功能性磁共振成像(fMRI)记录了大量人类观看电影的对象,我们首次证明了利用注视信息,以注意掩蔽的形式,可以显著提高神经编码模型中大脑反应预测的准确性。接下来,我们提出了一种新的神经编码方法,包括一个可训练的软注意模块。利用我们的新方法,我们证明了仅仅依靠fMRI反应数据,而不依赖任何眼球追踪,通过端到端学习来学习视觉注意力策略是可能的。有趣的是,我们发现该模型在独立数据上估计的注意力位置与相应的注视模式非常一致,尽管没有明确的监督。总之,这些发现表明,注意力模块可以在视觉刺激的神经编码模型中发挥作用。

成为VIP会员查看完整内容
40

相关内容

【NeurIPS 2020】对比学习全局和局部医学图像分割特征
专知会员服务
42+阅读 · 2020年10月20日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【NeurIPS2020-FB】学习具有可解码信息瓶颈的最优表示
专知会员服务
22+阅读 · 2020年10月13日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
专知会员服务
53+阅读 · 2019年12月22日
大脑通过统计推理表征“自我”
人工智能学家
6+阅读 · 2019年9月4日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
通过视频着色进行自监督跟踪
谷歌开发者
3+阅读 · 2018年7月11日
深度学习中的注意力机制
人工智能头条
16+阅读 · 2017年11月2日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
Arxiv
3+阅读 · 2018年11月13日
Arxiv
9+阅读 · 2018年10月24日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
VIP会员
相关资讯
大脑通过统计推理表征“自我”
人工智能学家
6+阅读 · 2019年9月4日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
通过视频着色进行自监督跟踪
谷歌开发者
3+阅读 · 2018年7月11日
深度学习中的注意力机制
人工智能头条
16+阅读 · 2017年11月2日
微信扫码咨询专知VIP会员