Transformer秒杀CNN,凭什么?
图与推荐
1+阅读 · 2021年6月15日
【资源推荐】BERT论文合集
专知
0+阅读 · 2020年3月3日
【资源】最新BERT相关论文清单汇总
专知
33+阅读 · 2019年10月2日
Child-Tuning:简单有效的微调涨点方法
夕小瑶的卖萌屋
1+阅读 · 2021年11月5日
现代NLP中的零样本学习
AINLP
0+阅读 · 2020年6月9日
复旦邱锡鹏教授:2020最新NLP预训练模型综述
新智元
0+阅读 · 2020年12月2日
CogLTX:将BERT应用于长文本
学术头条
4+阅读 · 2020年12月8日
参考链接
微信扫码咨询专知VIP会员