Auto-Regressive Video Diffusion Models (AR-VDMs) have shown strong capabilities in generating long, photorealistic videos, but suffer from two key limitations: (i) history forgetting, where the model loses track of previously generated content, and (ii) temporal degradation, where frame quality deteriorates over time. Yet a rigorous theoretical analysis of these phenomena is lacking, and existing empirical understanding remains insufficiently grounded. In this paper, we introduce Meta-ARVDM, a unified analytical framework that studies both errors through the shared autoregressive structure of AR-VDMs. We show that history forgetting is characterized by the conditional mutual information between the generated output and preceding frames, conditioned on inputs, and prove that incorporating more past frames monotonically alleviates history forgetting, thereby theoretically justifying a common belief in existing works. Moreover, our theory reveals that standard metrics fail to capture this effect, motivating a new evaluation protocol based on a ``needle-in-a-haystack'' task in closed-ended environments (DMLab and Minecraft). We further show that temporal degradation can be quantified by the cumulative sum of per-step errors, enabling prediction of degradation for different schedulers without video rollout. Finally, our evaluation uncovers a strong empirical correlation between history forgetting and temporal degradation, a connection not previously reported.


翻译:自回归视频扩散模型(AR-VDM)在生成长且逼真的视频方面展现出强大能力,但存在两个关键局限:(i)历史遗忘,即模型丢失对先前生成内容的跟踪;(ii)时间退化,即帧质量随时间推移而下降。然而,目前对这些现象缺乏严格的理论分析,现有的经验理解也缺乏充分的理论基础。本文提出Meta-ARVDM,一个统一的分析框架,通过AR-VDM共享的自回归结构来研究这两种误差。我们证明,历史遗忘的特征在于生成输出与先前帧之间的条件互信息(以输入为条件),并证明纳入更多过去帧可单调缓解历史遗忘,从而从理论上证实了现有工作中的普遍观点。此外,我们的理论揭示标准指标无法捕捉这种效应,因此提出了一种基于封闭环境(DMLab和Minecraft)中“大海捞针”任务的新评估协议。我们进一步表明,时间退化可通过每步误差的累积和来量化,从而能够在无需视频推演的情况下预测不同调度器的退化程度。最后,我们的评估揭示了历史遗忘与时间退化之间存在强经验相关性,这一关联此前未被报道。

0
下载
关闭预览

相关内容

【CVPR2024】掩码自解码器是有效的多任务视觉通用模型
专知会员服务
20+阅读 · 2024年3月16日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
40+阅读 · 2022年11月5日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员