成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
蒸馏
关注
4
综合
百科
VIP
热门
动态
论文
精华
Noisy Node Classification by Bi-level Optimization based Multi-teacher Distillation
Arxiv
0+阅读 · 5月8日
HeadArtist: Text-conditioned 3D Head Generation with Self Score Distillation
Arxiv
0+阅读 · 5月8日
Improving Long Text Understanding with Knowledge Distilled from Summarization Model
Arxiv
0+阅读 · 5月8日
Imagine Flash: Accelerating Emu Diffusion Models with Backward Distillation
Arxiv
0+阅读 · 5月8日
CLIP-KD: An Empirical Study of CLIP Model Distillation
Arxiv
0+阅读 · 5月7日
Score identity Distillation: Exponentially Fast Distillation of Pretrained Diffusion Models for One-Step Generation
Arxiv
0+阅读 · 5月6日
Towards Continual Knowledge Graph Embedding via Incremental Distillation
Arxiv
0+阅读 · 5月7日
On Good Practices for Task-Specific Distillation of Large Pretrained Visual Models
Arxiv
0+阅读 · 5月7日
GOVERN: Gradient Orientation Vote Ensemble for Multi-Teacher Reinforced Distillation
Arxiv
0+阅读 · 5月6日
Towards a theory of model distillation
Arxiv
0+阅读 · 5月4日
On the Theory of Cross-Modality Distillation with Contrastive Learning
Arxiv
0+阅读 · 5月6日
Compressing Long Context for Enhancing RAG with AMR-based Concept Distillation
Arxiv
0+阅读 · 5月6日
MAmmoTH2: Scaling Instructions from the Web
Arxiv
0+阅读 · 5月6日
Deep Space Separable Distillation for Lightweight Acoustic Scene Classification
Arxiv
0+阅读 · 5月6日
Diffusion Time-step Curriculum for One Image to 3D Generation
Arxiv
0+阅读 · 5月3日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top