【TPAMI2022】TransCL:基于Transformer的压缩学习,更灵活更强大

2022 年 8 月 2 日 专知


压缩学习(CL)是一个新兴的框架,集成了通过压缩感知(CS)的信号获取和机器学习,直接在少量测量上进行推理任务。它在节省内存和提高计算效率方面具有很大的优势,是一种很有前景的图像域方法。然而,以往对CL的尝试不仅局限于缺乏灵活性的固定CS比,而且还局限于MNIST/ cifar类数据集,不能扩展到复杂的现实世界高分辨率(HR)数据或视觉任务。本文提出了一种基于transformer的大规模图像压缩学习框架,称为TransCL。具体而言,TransCL 首先利用了可学习的基于块的压缩感知策略,并提出了一种灵活的线性投影策略,使得可以在任意CS比的情况下,以高效的块逐块的方式对大规模图像进行CL。然后,将所有区块的CS测量结果作为一个序列,部署一个纯粹基于transformer的骨干,用各种面向任务的头部执行视觉任务。我们充分分析表明,TransCL具有很强的抗干扰能力和对任意CS比的鲁棒适应性。对复杂HR数据的大量实验表明,所提出的TransCL可以在图像分类和语义分割任务中实现最先进的性能。尤其是CS比为10%的TransCL,可以获得与直接对原始数据进行操作时几乎相同的性能,即使CS比极低,只有1%,仍然可以获得令人满意的性能。我们提出的TransCL的源代码可以在https://github.com/MC-E/TransCL/上找到。

https://www.zhuanzhi.ai/paper/46644550ded0880743f316b9306bf8a8


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“TransCL” 就可以获取【TPAMI2022】TransCL:基于Transformer的压缩学习,更灵活更强大》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
4

相关内容

【CIKM2022】基于双向Transformers对比学习的序列推荐
专知会员服务
20+阅读 · 2022年8月10日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
CVPR2022 | Sparse Transformer刷新点云目标检测的SOTA
专知会员服务
24+阅读 · 2022年3月9日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
专知会员服务
22+阅读 · 2021年9月20日
【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
【ICML2022】时序自监督视频transformer
专知
1+阅读 · 2022年7月28日
【ICML2022】在线决策Transformer
专知
2+阅读 · 2022年7月27日
【ICML2022】几何多模态对比表示学习
专知
2+阅读 · 2022年7月17日
【CVPR2022】基于知识蒸馏的高效预训练
专知
4+阅读 · 2022年4月23日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
23+阅读 · 2020年9月16日
VIP会员
相关VIP内容
【CIKM2022】基于双向Transformers对比学习的序列推荐
专知会员服务
20+阅读 · 2022年8月10日
【ICML2022】时序自监督视频transformer
专知会员服务
30+阅读 · 2022年7月28日
【ICML2022】Transformer是元强化学习器
专知会员服务
53+阅读 · 2022年6月15日
【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
CVPR2022 | Sparse Transformer刷新点云目标检测的SOTA
专知会员服务
24+阅读 · 2022年3月9日
【AAAI2022】基于对比学习的预训练语言模型剪枝压缩
专知会员服务
27+阅读 · 2022年1月24日
专知会员服务
22+阅读 · 2021年9月20日
【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
相关基金
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员