We present LeMiCa, a training-free and efficient acceleration framework for diffusion-based video generation. While existing caching strategies primarily focus on reducing local heuristic errors, they often overlook the accumulation of global errors, leading to noticeable content degradation between accelerated and original videos. To address this issue, we formulate cache scheduling as a directed graph with error-weighted edges and introduce a Lexicographic Minimax Path Optimization strategy that explicitly bounds the worst-case path error. This approach substantially improves the consistency of global content and style across generated frames. Extensive experiments on multiple text-to-video benchmarks demonstrate that LeMiCa delivers dual improvements in both inference speed and generation quality. Notably, our method achieves a 2.9x speedup on the Latte model and reaches an LPIPS score of 0.05 on Open-Sora, outperforming prior caching techniques. Importantly, these gains come with minimal perceptual quality degradation, making LeMiCa a robust and generalizable paradigm for accelerating diffusion-based video generation. We believe this approach can serve as a strong foundation for future research on efficient and reliable video synthesis. Our code is available at :https://github.com/UnicomAI/LeMiCa


翻译:本文提出LeMiCa,一种无需训练且高效的扩散视频生成加速框架。现有缓存策略主要关注减少局部启发式误差,但往往忽视全局误差的累积,导致加速视频与原始视频之间存在明显的内容退化。为解决这一问题,我们将缓存调度建模为带误差权重边的有向图,并引入词典序极小极大路径优化策略,该策略显式地限制了最坏情况下的路径误差。该方法显著提升了生成帧之间全局内容与风格的一致性。在多个文本到视频基准测试上的广泛实验表明,LeMiCa在推理速度和生成质量两方面均实现了双重提升。值得注意的是,我们的方法在Latte模型上实现了2.9倍的加速,并在Open-Sora上达到了0.05的LPIPS分数,超越了先前的缓存技术。重要的是,这些性能提升仅伴随极小的感知质量下降,使得LeMiCa成为一个鲁棒且可泛化的扩散视频生成加速范式。我们相信该方法可为未来高效可靠视频合成的研究奠定坚实基础。代码已开源:https://github.com/UnicomAI/LeMiCa

0
下载
关闭预览

相关内容

论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员