Mixture-of-Experts-based (MoE-based) diffusion models demonstrate remarkable scalability in high-fidelity image generation, yet their reliance on expert parallelism introduces critical communication bottlenecks. State-of-the-art methods alleviate such overhead in parallel diffusion inference through computation-communication overlapping, termed displaced parallelism. However, we identify that these techniques induce severe *staleness*-the usage of outdated activations from previous timesteps that significantly degrades quality, especially in expert-parallel scenarios. We tackle this fundamental tension and propose DICE, a staleness-centric optimization framework with a three-fold approach: (1) Interweaved Parallelism introduces staggered pipelines, effectively halving step-level staleness for free; (2) Selective Synchronization operates at layer-level and protects layers vulnerable from staled activations; and (3) Conditional Communication, a token-level, training-free method that dynamically adjusts communication frequency based on token importance. Together, these strategies effectively reduce staleness, achieving 1.26x speedup with minimal quality degradation. Empirical results establish DICE as an effective and scalable solution. Our code is publicly available at https://github.com/Cobalt-27/DICE


翻译:基于专家混合(MoE-based)的扩散模型在高保真图像生成中展现出卓越的可扩展性,但其对专家并行化的依赖引入了关键的通信瓶颈。现有最先进方法通过计算-通信重叠(称为位移并行)来缓解并行扩散推理中的此类开销。然而,我们发现这些技术会导致严重的*陈旧性*——即使用来自先前时间步的过时激活,这会显著降低生成质量,尤其在专家并行场景中。我们针对这一根本性矛盾提出了DICE,一个以陈旧性为中心的优化框架,采用三重方法:(1)交错并行引入交错流水线,有效将步级陈旧性减半且无额外开销;(2)选择性同步在层级操作,保护易受陈旧激活影响的层;(3)条件通信,一种基于令牌的无训练方法,根据令牌重要性动态调整通信频率。这些策略共同有效降低了陈旧性,在质量损失最小的情况下实现了1.26倍的加速。实证结果表明DICE是一种高效且可扩展的解决方案。我们的代码公开于https://github.com/Cobalt-27/DICE。

0
下载
关闭预览

相关内容

【WWW2021】归一化硬样本挖掘的双重注意匹配网络
专知会员服务
18+阅读 · 2021年3月31日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员