我们提出了一种新颖的预训练范式——强监督截屏预训练(S4),用于视觉-语言模型,该模型使用来自大规模网页截屏渲染的数据。使用网页截屏可以解锁视觉和文本提示的宝库,这些提示在使用图像-文本对时不存在。在S4中,我们利用HTML元素的固有树结构层次和空间定位,精心设计了10个预训练任务,这些任务具有大规模注释数据。这些任务类似于不同领域的下游任务,且注释获取成本低。我们证明,与当前的截屏预训练目标相比,我们创新的预训练方法显著提升了图像到文本模型在九个不同且流行的下游任务中的性能——在表格检测上提高了高达76.1%的性能,并且在小部件标题生成上至少提高了1%。

成为VIP会员查看完整内容
13

相关内容

【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
专知会员服务
18+阅读 · 2020年10月13日
专知会员服务
44+阅读 · 2020年3月6日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
Github项目推荐 | Pytorch TVM 扩展
AI研习社
11+阅读 · 2019年5月5日
【深度学习基础】4. Recurrent Neural Networks
微信AI
16+阅读 · 2017年7月19日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
67+阅读 · 2022年9月7日
Arxiv
10+阅读 · 2021年2月26日
VIP会员
相关VIP内容
【CVPR2021】多实例主动学习目标检测
专知会员服务
41+阅读 · 2021年4月18日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
【NeurIPS 2020】视觉和语言表示学习的大规模对抗性训练
专知会员服务
14+阅读 · 2020年10月27日
专知会员服务
18+阅读 · 2020年10月13日
专知会员服务
44+阅读 · 2020年3月6日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
29+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
相关论文
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
67+阅读 · 2022年9月7日
Arxiv
10+阅读 · 2021年2月26日
微信扫码咨询专知VIP会员