成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
下游任务
关注
0
综合
百科
VIP
热门
动态
论文
精华
WWW2022|去芜存菁:基于互信息压缩的紧致图结构学习
专知
1+阅读 · 2022年1月21日
自监督学习新范式CAE:为什么 MIM 比对比学习更适合下游任务?
机器之心
0+阅读 · 2022年2月19日
Transformer秒杀CNN,凭什么?
图与推荐
1+阅读 · 2021年6月15日
ICLR 2022 Oral | 港大和商汤开源CycleMLP:用于检测与分割任务的MLP架构
CVer
0+阅读 · 2022年2月16日
【资源推荐】BERT论文合集
专知
0+阅读 · 2020年3月3日
【资源】最新BERT相关论文清单汇总
专知
33+阅读 · 2019年10月2日
Child-Tuning:简单有效的微调涨点方法
夕小瑶的卖萌屋
1+阅读 · 2021年11月5日
一键即运行!清华团队推出图深度学习工具包CogDL v0.1
学术头条
0+阅读 · 2020年10月28日
现代NLP中的零样本学习
AINLP
0+阅读 · 2020年6月9日
无需大规模预训练,清华提出高效NLP学习框架TLM:从零开始比肩预训练语言模型性能
机器之心
0+阅读 · 2021年11月12日
复旦邱锡鹏教授:2020最新NLP预训练模型综述
新智元
0+阅读 · 2020年12月2日
SoCo: 通过目标级对比学习实现整个目标检测模型的预训练
极市平台
1+阅读 · 2021年11月16日
CogLTX:将BERT应用于长文本
学术头条
4+阅读 · 2020年12月8日
训练CV模型新思路来了:用NLP大火的Prompt替代微调,性能全面提升
量子位
1+阅读 · 2022年3月25日
代码表征预训练语言模型学习指南:原理、分析和代码
PaperWeekly
0+阅读 · 2022年7月20日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top