该报告将初步探讨自监督学习的三种基本范式:对比范式、掩码范式和内隐范式。对比范式的主要方法是对比学习,我们给出了对比学习有效性的理论解释,并进一步探讨了在低维表示空间进行对比学习的可行性。掩码范式的代表性方法是掩码自编码器,我们讨论了掩码策略问题,给出了多模态掩码预训练在深度补全中的应用;内隐范式的典型应用是无监督深度估计,我介绍了无监督深度估计的基本思想,探讨了无监督深度估计方法的自适应性问题。

成为VIP会员查看完整内容
34

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
《自监督学习》最新报告,45页ppt
专知会员服务
74+阅读 · 2022年9月14日
自监督学习理论
专知会员服务
55+阅读 · 2022年8月23日
【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
59+阅读 · 2021年4月11日
自监督学习最新研究进展
专知会员服务
76+阅读 · 2021年3月24日
最新《对比监督学习》综述论文,20页pdf
专知会员服务
82+阅读 · 2020年11月5日
专知会员服务
18+阅读 · 2020年10月13日
自监督学习理论
专知
1+阅读 · 2022年8月23日
对比学习在NLP和多模态领域的应用
RUC AI Box
2+阅读 · 2022年2月25日
再介绍一篇最新的Contrastive Self-supervised Learning综述论文
夕小瑶的卖萌屋
1+阅读 · 2021年9月22日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
27+阅读 · 2018年4月12日
VIP会员
相关VIP内容
《自监督学习》最新报告,45页ppt
专知会员服务
74+阅读 · 2022年9月14日
自监督学习理论
专知会员服务
55+阅读 · 2022年8月23日
【CVPR2022】UniVIP:自监督视觉预训练的统一框架
专知会员服务
27+阅读 · 2022年3月16日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
59+阅读 · 2021年4月11日
自监督学习最新研究进展
专知会员服务
76+阅读 · 2021年3月24日
最新《对比监督学习》综述论文,20页pdf
专知会员服务
82+阅读 · 2020年11月5日
专知会员服务
18+阅读 · 2020年10月13日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员