Underwater image restoration and enhancement are crucial for correcting color distortion and restoring image details, thereby establishing a fundamental basis for subsequent underwater visual tasks. However, current deep learning methodologies in this area are frequently constrained by the scarcity of high-quality paired datasets. Since it is difficult to obtain pristine reference labels in underwater scenes, existing benchmarks often rely on manually selected results from enhancement algorithms, providing debatable reference images that lack globally consistent color and authentic supervision. This limits the model's capabilities in color restoration, image enhancement, and generalization. To overcome this limitation, we propose using in-air natural images as unambiguous reference targets and translating them into underwater-degraded versions, thereby constructing synthetic datasets that provide authentic supervision signals for model learning. Specifically, we establish a generative data framework based on unpaired image-to-image translation, producing a large-scale dataset that covers 6 representative underwater degradation types. The framework constructs synthetic datasets with precise ground-truth labels, which facilitate the learning of an accurate mapping from degraded underwater images to their pristine scene appearances. Extensive quantitative and qualitative experiments across 6 representative network architectures and 3 independent test sets show that models trained on our synthetic data achieve comparable or superior color restoration and generalization performance to those trained on existing benchmarks. This research provides a reliable and scalable data-driven solution for underwater image restoration and enhancement. The generated dataset is publicly available at: https://github.com/yftian2025/SynUIEDatasets.git.


翻译:水下图像复原与增强对于校正色彩失真和恢复图像细节至关重要,从而为后续水下视觉任务奠定基础。然而,当前该领域的深度学习方法常受限于高质量配对数据集的稀缺性。由于在水下场景中难以获取原始参考标签,现有基准数据集通常依赖于增强算法的人工筛选结果,提供缺乏全局一致色彩和真实监督的争议性参考图像,这限制了模型在色彩复原、图像增强和泛化方面的能力。为克服这一局限,我们提出使用空中自然图像作为明确的参考目标,并将其转换为水下退化版本,从而构建合成数据集,为模型学习提供真实的监督信号。具体而言,我们建立了一个基于非配对图像到图像转换的生成式数据框架,生成了涵盖6种代表性水下退化类型的大规模数据集。该框架构建了具有精确真实标签的合成数据集,有助于学习从退化水下图像到其原始场景外观的准确映射。在6种代表性网络架构和3个独立测试集上进行的大量定量与定性实验表明,基于我们合成数据训练的模型在色彩复原和泛化性能上达到或超越了基于现有基准数据集训练的模型。本研究为水下图像复原与增强提供了一个可靠且可扩展的数据驱动解决方案。生成的数据集已公开于:https://github.com/yftian2025/SynUIEDatasets.git。

0
下载
关闭预览

相关内容

Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员