为什么要进行自监督学习? 一个常见的回答是:“因为数据标签是昂贵的。”在这次报告中,我将会提出,进行自监督学习还有其他的,也许是更根本的原因。首先,它应该允许我们摆脱自上而下的语义分类的暴力方法,迫使有意义的关联以一种自底向上的方式从原始传感器数据中自然地出现。其次,它应该允许我们抛弃固定的数据集,并实现持续的在线学习,这对现实世界的代理来说是一个更自然的设置。第三,也是最有趣的是,有可能强迫一个自监督的任务课程从第一原则中出现,即使在没有预定义的下游任务或目标的情况下,类似于进化。在这次演讲中,我将谈到这些主题来说明,自监督学习的研究才刚刚开始。

成为VIP会员查看完整内容
40

相关内容

自监督学习(self-supervised learning)可以被看作是机器学习的一种“理想状态”,模型直接从无标签数据中自行学习,无需标注数据。
【ICLR2021】常识人工智能,77页ppt
专知会员服务
72+阅读 · 2021年5月11日
MIT《图神经网络的任务结构与泛化》,22页ppt
专知会员服务
23+阅读 · 2021年2月28日
【AAAI2021】RSPNet: 相对速度感知的无监督视频表示学习
专知会员服务
18+阅读 · 2021年2月12日
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
177+阅读 · 2020年5月29日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
Arxiv
8+阅读 · 2018年11月21日
VIP会员
相关资讯
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【自监督学习】OpenAI科学家一文详解自监督学习
产业智能官
25+阅读 · 2020年3月18日
OpenAI科学家一文详解自监督学习
新智元
18+阅读 · 2019年11月20日
深度思考 | 从BERT看大规模数据的无监督利用
PaperWeekly
11+阅读 · 2019年2月18日
微信扫码咨询专知VIP会员