For years Single Image Super resolution(SISR) is an interesting and ill posed problem in Computer Vision. The traditional Super Resolution(SR) imaging approaches involve Interpolation, Reconstruction and Learning based methods. Interpolation methods are fast and uncomplicated to compute but they are not so accurate and reliable. Reconstruction based methods are better compared with Interpolation methods but are time consuming and quality degrades as the scaling increases. Even though, Learning based methods like Markov random chain are far better then all the previous they are unable to match the performance of deep learning models for SISR. In this project, Residual Dense Networks architecture proposed by Yhang et al \cite{srrdn} was extended to involve novel components and the importance of components in this architecture will be analysed. This architecture makes full use of hierarchial features from original low-resolution (LR) images to achieve higher performance. The network structure consists of four main blocks. The core of the architecture is the residual dense block(RDB) where the local features are extracted and made use of via dense convolutional layers. In this work, investigation of each block was performed and effect of each modules was be studied and analyzed. Analyses by use various loss metric was also carried out in this project. Also a comparison was made with various state of the art models which highly differ by architecture and components. The modules in the model were be built from scratch and were trained and tested. The training and testing was be carried out for various scaling factors and the performance was be evaluated.


翻译:多年来,单图像超分辨率(SISR)一直是计算机视觉领域中一个有趣而棘手的问题。传统的超分辨率(SR)图像处理方法包括插值、重建和基于学习的方法。插值方法计算速度快、简单,但精度和可靠性不高。重建方法相比插值方法更好,但时间消耗大且质量随着放大比例的增加而下降。尽管如此,学习基于方法如马尔可夫随机链比前面的方法都要好,但仍无法与用于SISR的深度学习模型的性能匹配。在这个项目中,将Yhang等人\cite{srrdn}提出的残差密集网络结构扩展以涉及新的组件,并分析此架构中组件的重要性。这种架构充分利用了原始低分辨率(LR)图像的分层特征,以实现更高的性能。网络结构由四个主要块组成。架构的核心是残差密集块(RDB),其中局部特征通过密集的卷积层进行提取和利用。在这项工作中,对每个块进行了调查,并研究和分析了组件的影响。还使用各种损失度量进行了分析。此外,还与各种不同架构和组件的最新模型进行了比较。模型中的模块从头开始构建,进行训练和测试。对各种放大因子进行了训练和测试,并评估了性能。

0
下载
关闭预览

相关内容

专知会员服务
59+阅读 · 2020年3月19日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
【泡泡一分钟】利用四叉树加速的单目实时稠密建图
泡泡机器人SLAM
28+阅读 · 2019年4月26日
【泡泡一分钟】用于深度双目的非监督适应方法(ICCV-2017)
泡泡机器人SLAM
10+阅读 · 2018年10月7日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
16+阅读 · 2021年1月27日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员