【ICLR2021】彩色化变换器,Colorization Transformer

2021 年 2 月 10 日 专知


我们介绍了Colorization Transformer,这是一种基于自注意力,多样化的高保真图像着色的新颖方法。给定灰度图像,着色过程分三个步骤进行。我们首先使用条件自回归Transformer产生灰度图像的低分辨率粗色。我们的体系结构采用条件transformer层来有效调节灰度输入。随后的两个完全并行网络将粗糙的彩色低分辨率图像上采样为精细的彩色高分辨率图像。从Colorization Transformer进行采样可生成多种颜色,其保真度优于基于FID结果和在Mechanical Turk测试中的人工评估为ImageNet着色的最新技术。值得注意的是,在超过60%的情况下,人类评估师更喜欢三种生成的着色中评分最高的事实,而不是事实。

https://www.zhuanzhi.ai/paper/a362fff43be7a2b9613cfaad3fa7789b

专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“ColTran” 可以获取《【ICLR2021】彩色化变换器,Colorization Transformer》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
12

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【CVPR2021】基于端到端预训练的视觉-语言表征学习
专知会员服务
37+阅读 · 2021年4月9日
【AAAI2021】双级协作变换器Transformer图像描述生成
专知会员服务
26+阅读 · 2021年1月26日
最新《Transformers模型》教程,64页ppt
专知会员服务
276+阅读 · 2020年11月26日
【ICML2020】文本摘要生成模型PEGASUS
专知会员服务
34+阅读 · 2020年8月23日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
注意力图神经网络的多标签文本分类
专知
8+阅读 · 2020年3月28日
Arxiv
9+阅读 · 2021年2月8日
Arxiv
19+阅读 · 2020年12月23日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2019年8月22日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
VIP会员
相关论文
Arxiv
9+阅读 · 2021年2月8日
Arxiv
19+阅读 · 2020年12月23日
Generating Rationales in Visual Question Answering
Arxiv
5+阅读 · 2020年4月4日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
5+阅读 · 2019年8月22日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Top
微信扫码咨询专知VIP会员