自监督学习理论

2022 年 8 月 23 日 专知


华为诺亚方舟实验室的黄维然向大家介绍了自监督学习的前沿研究。首先,他对自监督学习的概念和分类进行了介绍,并以几个简单的例子带大家探索了基于生成、对比和前置任务等不同方法的模型构建与数学推演。在分享的最后,他引用图灵奖得主杨立昆与本吉奥的话,向大家展示了自监督学习的广阔前景。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“SSLT” 就可以获取自监督学习理论》专知下载链接

                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
1

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
【NeurIPS2022】VICRegL:局部视觉特征的自监督学习
专知会员服务
31+阅读 · 2022年10月6日
《自监督学习》最新报告,45页ppt
专知会员服务
74+阅读 · 2022年9月14日
【MIT博士论文】自监督学习语音处理,148页pdf
专知会员服务
50+阅读 · 2022年8月31日
视觉识别的无监督域适应研究综述
专知会员服务
30+阅读 · 2021年12月17日
自监督学习最新研究进展
专知会员服务
76+阅读 · 2021年3月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
《自监督学习》最新报告,45页ppt
专知
1+阅读 · 2022年9月14日
【CVPR2022】ContrastMask:对比学习来分割各种
专知
0+阅读 · 2022年3月21日
迁移学习方法在医学图像领域的应用综述
多模态视觉语言表征学习研究综述
专知
25+阅读 · 2020年12月3日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年11月23日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
19+阅读 · 2018年3月28日
VIP会员
相关VIP内容
【NeurIPS2022】VICRegL:局部视觉特征的自监督学习
专知会员服务
31+阅读 · 2022年10月6日
《自监督学习》最新报告,45页ppt
专知会员服务
74+阅读 · 2022年9月14日
【MIT博士论文】自监督学习语音处理,148页pdf
专知会员服务
50+阅读 · 2022年8月31日
视觉识别的无监督域适应研究综述
专知会员服务
30+阅读 · 2021年12月17日
自监督学习最新研究进展
专知会员服务
76+阅读 · 2021年3月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
相关论文
Arxiv
0+阅读 · 2022年11月23日
Arxiv
13+阅读 · 2022年1月20日
Arxiv
14+阅读 · 2021年8月5日
Arxiv
19+阅读 · 2021年4月8日
Arxiv
13+阅读 · 2020年4月12日
Arxiv
19+阅读 · 2018年3月28日
Top
微信扫码咨询专知VIP会员