Vision foundation models trained via multi-teacher distillation offer a promising path toward unified visual representations, yet the learning dynamics and data efficiency of such approaches remain underexplored. In this paper, we systematically study multi-teacher distillation for vision foundation models and identify key factors that enable training at lower computational cost. We introduce Agglomerative Mixture-of-Experts Vision Foundation Models (AMoE), which distill knowledge from SigLIP2 and DINOv3 simultaneously into a Mixture-of-Experts student. We show that (1) our Asymmetric Relation-Knowledge Distillation loss preserves the geometric properties of each teacher while enabling effective knowledge transfer, (2) token-balanced batching that packs varying-resolution images into sequences with uniform token budgets stabilizes representation learning across resolutions without sacrificing performance, and (3) hierarchical clustering and sampling of training data--typically reserved for self-supervised learning--substantially improves sample efficiency over random sampling for multi-teacher distillation. By combining these findings, we curate OpenLVD200M, a 200M-image corpus that demonstrates superior efficiency for multi-teacher distillation. Instantiated in a Mixture-of-Experts. We release OpenLVD200M and distilled models.


翻译:通过多教师蒸馏训练的视觉基础模型为实现统一视觉表征提供了一条有前景的路径,然而此类方法的学习动态与数据效率仍未得到充分探索。本文系统研究了面向视觉基础模型的多教师蒸馏方法,并识别出能够以更低计算成本实现训练的关键因素。我们提出了凝聚式专家混合视觉基础模型(AMoE),其可同时将SigLIP2与DINOv3的知识蒸馏至专家混合学生模型中。研究表明:(1)我们提出的非对称关系知识蒸馏损失在保持各教师模型几何特性的同时实现了有效的知识迁移;(2)通过令牌均衡批处理将不同分辨率图像打包至具有统一令牌预算的序列中,可在不牺牲性能的前提下稳定跨分辨率的表征学习;(3)对训练数据进行层次化聚类与采样——这一通常用于自监督学习的技术——相比随机采样能显著提升多教师蒸馏的样本效率。综合这些发现,我们构建了包含2亿张图像的OpenLVD200M数据集,该数据集在多教师蒸馏任务中展现出卓越的效率优势。基于专家混合架构实现模型实例化后,我们开源了OpenLVD200M数据集及蒸馏所得模型。

0
下载
关闭预览

相关内容

144页ppt《扩散模型》,Google DeepMind Sander Dieleman
专知会员服务
48+阅读 · 11月21日
【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
Mask R-CNN 论文笔记
统计学习与视觉计算组
11+阅读 · 2018年3月22日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员