成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
蒸馏
关注
5
综合
百科
VIP
热门
动态
论文
精华
Simple yet Effective Semi-supervised Knowledge Distillation from Vision-Language Models via Dual-Head Optimization
Arxiv
0+阅读 · 9月30日
Beyond Pixels: Efficient Dataset Distillation via Sparse Gaussian Representation
Arxiv
0+阅读 · 9月30日
Static Word Embeddings for Sentence Semantic Representation
Arxiv
0+阅读 · 9月30日
Adaptive Modality Balanced Online Knowledge Distillation for Brain-Eye-Computer based Dim Object Detection
Arxiv
0+阅读 · 9月30日
Structured Agent Distillation for Large Language Model
Arxiv
0+阅读 · 9月30日
MotionRAG: Motion Retrieval-Augmented Image-to-Video Generation
Arxiv
0+阅读 · 9月30日
Scalable LLM Math Reasoning Acceleration with Low-rank Distillation
Arxiv
0+阅读 · 9月30日
QUARTZ : QA-based Unsupervised Abstractive Refinement for Task-oriented Dialogue Summarization
Arxiv
0+阅读 · 9月30日
Thinking-Free Policy Initialization Makes Distilled Reasoning Models More Effective and Efficient Reasoners
Arxiv
0+阅读 · 9月30日
Revealing the Power of Post-Training for Small Language Models via Knowledge Distillation
Arxiv
0+阅读 · 9月30日
dParallel: Learnable Parallel Decoding for dLLMs
Arxiv
0+阅读 · 9月30日
Interpret, prune and distill Donut : towards lightweight VLMs for VQA on document
Arxiv
0+阅读 · 9月30日
DM-Codec: Distilling Multimodal Representations for Speech Tokenization
Arxiv
0+阅读 · 9月29日
ART-DECO: Arbitrary Text Guidance for 3D Detailizer Construction
Arxiv
0+阅读 · 9月26日
SANA-Sprint: One-Step Diffusion with Continuous-Time Consistency Distillation
Arxiv
0+阅读 · 9月29日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top