压缩学习(CL)是一个新兴的框架,集成了通过压缩感知(CS)的信号获取和机器学习,直接在少量测量上进行推理任务。它在节省内存和提高计算效率方面具有很大的优势,是一种很有前景的图像域方法。然而,以往对CL的尝试不仅局限于缺乏灵活性的固定CS比,而且还局限于MNIST/ cifar类数据集,不能扩展到复杂的现实世界高分辨率(HR)数据或视觉任务。本文提出了一种基于transformer的大规模图像压缩学习框架,称为TransCL。具体而言,TransCL 首先利用了可学习的基于块的压缩感知策略,并提出了一种灵活的线性投影策略,使得可以在任意CS比的情况下,以高效的块逐块的方式对大规模图像进行CL。然后,将所有区块的CS测量结果作为一个序列,部署一个纯粹基于transformer的骨干,用各种面向任务的头部执行视觉任务。我们充分分析表明,TransCL具有很强的抗干扰能力和对任意CS比的鲁棒适应性。对复杂HR数据的大量实验表明,所提出的TransCL可以在图像分类和语义分割任务中实现最先进的性能。尤其是CS比为10%的TransCL,可以获得与直接对原始数据进行操作时几乎相同的性能,即使CS比极低,只有1%,仍然可以获得令人满意的性能。我们提出的TransCL的源代码可以在https://github.com/MC-E/TransCL/上找到。

https://www.zhuanzhi.ai/paper/46644550ded0880743f316b9306bf8a8

成为VIP会员查看完整内容
23

相关内容

IEEE模式分析和机器智能期刊TPAMI(IEEE Trans on Pattern Analysis and Machine Intelligence)出版了有关计算机视觉和图像理解的所有传统领域,模式分析和识别的所有传统领域以及机器智能的选定领域的文章,其中特别强调了用于模式分析的机器学习。还涵盖了诸如可视搜索,文档和手写分析,医学图像分析,视频和图像序列分析,基于内容的图像和视频检索,面部和手势识别以及相关的专用硬件和/或软件体系结构等技术领域。 官网地址:http://dblp.uni-trier.de/db/journals/pami/
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
19+阅读 · 2022年7月9日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
【ICLR2022】Transformers亦能贝叶斯推断
专知会员服务
24+阅读 · 2021年12月23日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
36+阅读 · 2021年8月2日
专知会员服务
22+阅读 · 2021年5月23日
专知会员服务
17+阅读 · 2021年3月16日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
谷歌提出MaskGIT:掩码生成图像Transformer
CVer
2+阅读 · 2022年3月21日
Pale Transformer:新视觉ViT主干
CVer
0+阅读 · 2022年1月2日
【ICLR2022】Transformers亦能贝叶斯推断
专知
0+阅读 · 2021年12月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年9月29日
Arxiv
14+阅读 · 2022年5月14日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
VIP会员
相关VIP内容
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
19+阅读 · 2022年7月9日
【ICML2022】结构感知Transformer的图表示学习
专知会员服务
48+阅读 · 2022年6月17日
【ICLR2022】Transformers亦能贝叶斯推断
专知会员服务
24+阅读 · 2021年12月23日
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
36+阅读 · 2021年8月2日
专知会员服务
22+阅读 · 2021年5月23日
专知会员服务
17+阅读 · 2021年3月16日
【AAAI2021】协同挖掘:用于稀疏注释目标检测的自监督学习
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年9月29日
Arxiv
14+阅读 · 2022年5月14日
Arxiv
20+阅读 · 2021年9月21日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
15+阅读 · 2020年2月5日
Self-Attention Graph Pooling
Arxiv
13+阅读 · 2019年6月13日
微信扫码咨询专知VIP会员