Denoising Diffusion Probabilistic Models (DDPMs) have significantly advanced generative AI, achieving impressive results in high-quality image and data generation. However, enhancing fidelity without compromising semantic content remains a key challenge in the field. Recent diffusion research in multiple disciplines has introduced objectives and architectural refinements that tighten the match between generated and real data distributions, yielding higher fidelity than earlier generative frameworks. Multi-stage architectures, physics-guided modeling, semantic conditioning, and rarity-aware generation are some of the explored works to achieve this task. However, the integration of structural information of the data distribution into DDPM has largely been unexplored. The conventional DDPM framework relies solely on the $L^2$ norm between the additive and predicted noise to generate new data distributions. We introduce I-Diff, an improved version of DDPM that incorporates a carefully designed regularizer, effectively enabling the model to encode structural information, thereby preserving the inherent fidelity of the data distribution. The proposed approach is validated through extensive experiments on DDPM, Improved DDPM and Latent Diffusion Model across multiple datasets. Empirical results demonstrate significant improvements in fidelity (Density and Precision increase 10% and 37% in CIFAR-100 dataset respectively) across other tested datasets. These results highlight the effectiveness of our method in enhancing the fidelity of the generated data. Notably, improvements across different models highlight the model-agnostic nature of our proposed method in the wider field of generative AI.


翻译:去噪扩散概率模型(DDPMs)显著推动了生成式人工智能的发展,在高质量图像与数据生成方面取得了令人瞩目的成果。然而,在不损害语义内容的前提下提升生成保真度,仍是该领域的关键挑战。近期多学科领域的扩散模型研究引入了旨在缩小生成数据与真实数据分布间差异的目标函数与架构优化,相比早期生成框架实现了更高的保真度。多阶段架构、物理引导建模、语义条件约束以及稀有性感知生成等均为实现该目标的研究方向。然而,将数据分布的结构信息整合至DDPM框架的研究尚不充分。传统DDPM框架仅依赖加性噪声与预测噪声间的$L^2$范数来生成新数据分布。本文提出I-Diff——一种改进的DDPM版本,通过引入精心设计的正则化项,使模型能够有效编码结构信息,从而保持数据分布的固有保真度。所提方法在DDPM、改进型DDPM及潜在扩散模型上,基于多个数据集进行了广泛实验验证。实证结果表明,在CIFAR-100数据集中,保真度指标(密度与精确度分别提升10%与37%)及其他测试数据集上均取得显著改善。这些结果凸显了本方法在提升生成数据保真度方面的有效性。值得注意的是,不同模型上的普遍改进证明了本方法在更广泛的生成式人工智能领域中具有模型无关的普适性。

0
下载
关闭预览

相关内容

【KDD2024】HiGPT:异构图语言模型
专知会员服务
19+阅读 · 2024年7月9日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
LibRec 每周算法:DeepFM
LibRec智能推荐
14+阅读 · 2017年11月6日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关资讯
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
LibRec 每周算法:DeepFM
LibRec智能推荐
14+阅读 · 2017年11月6日
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员