Denoising diffusion probabilistic models have brought tremendous advances in generative tasks, achieving state-of-the-art performance thus far. Current diffusion model-based applications exploit the power of learned visual representations from multistep forward-backward Markovian processes for single-task prediction tasks by attaching a task-specific decoder. However, the heuristic selection of diffusion timestep features still heavily relies on empirical intuition, often leading to sub-optimal performance biased towards certain tasks. To alleviate this constraint, we investigate the significance of versatile diffusion timestep features by adaptively selecting timesteps best suited for the few-shot dense prediction task, evaluated on an arbitrary unseen task. To this end, we propose two modules: Task-aware Timestep Selection (TTS) to select ideal diffusion timesteps based on timestep-wise losses and similarity scores, and Timestep Feature Consolidation (TFC) to consolidate the selected timestep features to improve the dense predictive performance in a few-shot setting. Accompanied by our parameter-efficient fine-tuning adapter, our framework effectively achieves superiority in dense prediction performance given only a few support queries. We empirically validate our learnable timestep consolidation method on the large-scale challenging Taskonomy dataset for dense prediction, particularly for practical universal and few-shot learning scenarios.


翻译:去噪扩散概率模型在生成任务中带来了巨大进步,迄今取得了最先进的性能。当前基于扩散模型的应用通过附加任务特定的解码器,利用从多步前向-后向马尔可夫过程学习到的视觉表示能力进行单任务预测。然而,扩散时间步特征的启发式选择仍然严重依赖经验直觉,往往导致偏向特定任务的次优性能。为缓解这一限制,我们研究了多功能扩散时间步特征的重要性,通过自适应选择最适合少样本密集预测任务的时间步,在任意未见任务上进行评估。为此,我们提出两个模块:基于时间步损失和相似度分数的任务感知时间步选择(TTS)模块,用于选择理想的扩散时间步;以及时间步特征整合(TFC)模块,用于整合所选时间步特征以提升少样本场景下的密集预测性能。结合我们参数高效微调的适配器,该框架在仅提供少量支持查询的情况下,有效实现了密集预测性能的优越性。我们在大规模挑战性Taskonomy数据集上实证验证了可学习时间步整合方法对密集预测的有效性,特别针对实际通用和少样本学习场景。

0
下载
关闭预览

相关内容

【AAAI2023】基于Dirichlet元模型的事后不确定性学习
专知会员服务
16+阅读 · 2022年12月16日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员