6月3日组会分享:基于物理和特定领域知识的神经网络无标签监督学习

2017 年 6 月 2 日 统计学习与视觉计算组 闫茜宇


原文:

《Label-Free Supervision of Neural Network with Physics and Domain Knowledge》

本文是AAAI2017的最佳论文,作者是斯坦福的Russell Stewart,Stefano Ermon

点击文章末尾原文链接即可获取原文。

————————————————

动机:


1.许多机器学习应用中,label数据是很稀缺,想要获得更多label需要付出很大代价。因此本文致力于不用label来监督(训练)神经网络。


2.通过观察发现,人类的学习经常不是通过直接的样本,而是通过高级训练以达到更好的性能,或者说当完成学习的时候,看起来像什么。因此考虑是否可以用相同的原理来教会机器?是否可以不用直接的标签样本而是通过对希望输出的结构进行描述来代替标签样本?

因此本文介绍一种新的方法:把握输出空间的结构而不是直接的“输入-输出”对的样例。这种限制通过先验的特定领域知识导出,比如可以通过已知的物理学定律。


—————————————————

图1:限制学习目的在于不适用标签 y 来达到转换 f。而是寻找一个映射 f 来捕捉输出空间的结构,这个结构通过g得到。


问题步骤


1.  传统的有监督学习中,给定一个n个训练样本的训练集D={(x1,y1),…,(xn,yn)},每个样本对由输入xi属于X和对应的标签yi属于Y组成,目标是学习一个函数:f:X->Y的一个映射。为了量化性能,提供一个损失函数,l:YxY->R:

          (1)

上式优化的是假设的类别。在这里,f是(卷积)神经网络的参数。

        通过限制可以指定假设类别F的函数空间,我们正在利用想要解决的问题的先验知识。正是所谓的无免费午餐定理。


    另一种先验知识参与模型的通用方法是为某函数在F中指定一个先验的优先权,结合正则化项:,求解:。通常正则化项指对简单函数的优先权,正如“奥卡姆剃刀定律”。正则化技术比如dropout是训练函数有大量参数时为了防止过拟合的方法。


    在许多机器学习问题中,输入空间X是复杂的(如图像),而输出空间Y是简单的(比如说二分类问题只有两个类Y={0,1})。我们关心结构预测问题,这样X和Y都是复杂的。如如说,在第一个实验中,X对应图像序列,Y对应物体在空中移动时的高度。目标时得到一个函数可以准确映射帧到物体对应高度。显而易见,每一帧的高度并不是独立的,序列证明了一个很准确的(代数)结构。事实上,我们知道从物理的角度看,序列和输出的关系是抛物线曲线关系。最主要的,一个可以参与的先验知识是只考虑有效的子集,,并且相应的限制假设类别F。然而这种方法仍然需要label。并且很难将估计结合很难很成功的规则化方法用于神经网络。


2.  本文中,我们对先验知识对输出进行结构建模,通过提供一个带权重的限制函数:,用于惩罚与先验知识不一致的结构。在我们的第三个应用中,Y是一个(多维的)离散空间(如描述一幅图的潜在的两类属性),g可以利用图形学模型的方法进行详细制定,可以作为一个可能性或限制的加权和that只取决于变量的一个小的子集。

本文中我们探索的是是否这种微弱形式的监督可以充分学习到感兴趣的函数。


实验


  本文方法的目标时训练一个神经网络f,从输入到输出的映射是我们关心的,而不需要直接的输入输出对。前两个实验是从一张图像到目标位置的映射,学习关注的是通过探索整个过程中图像的结构。第三个实验中,映射一张图像到两个布尔变量描述图像中是否有两个不同的目标。学习过程探索这些目标之间的独特的因果语义。实验中,提供的label只用于评估中。


第一个实验:跟踪自由下落的物体


本实验中记录被抛掷的物体的视频,目的在于学习每帧物体的高度。目标时得到一个回归网络,高度和宽度是每帧水之方向和水平方向的像素值,每个像素有三个通道。训练这个神经网络当做一个结构问题再一个有N个图像序列的视频上,产生一个具有N个高度的序列,代替直接用标签来训练网络。

损失函数:

第二个实验:跟踪行人的位置

损失函数:


总结


  本文介绍了一种利用物理和其他领域的限制来监督神经网络的方法。未来的挑战包括扩展这种结果到大量的数据集,以及对新的问题简化选择优化项的过程。另外可以从已收集的label基础上,结合本文的方法,对神经网络进行弱监督训练。




登录查看更多
10

相关内容

领域知识:特定行业,方向的专业知识。
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
基于深度神经网络的少样本学习综述
专知会员服务
167+阅读 · 2020年4月22日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
21+阅读 · 2020年4月12日
【图神经网络(GNN)结构化数据分析】
专知会员服务
114+阅读 · 2020年3月22日
机器也能学会如何学习?——元学习介绍
AINLP
19+阅读 · 2019年9月22日
已删除
将门创投
4+阅读 · 2018年11月15日
机器学习的5种距离度量方法
七月在线实验室
9+阅读 · 2018年5月18日
【干货】监督学习与无监督学习简介
专知
13+阅读 · 2018年4月4日
干货|深度神经网络(DNN)反向传播算法(BP)
全球人工智能
7+阅读 · 2018年1月12日
深度学习和普通机器学习之间有何区别?
36大数据
7+阅读 · 2017年12月4日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
【选介】基于全卷积网络的迭代非盲反卷积
机器学习研究会
7+阅读 · 2017年9月12日
Arxiv
9+阅读 · 2018年10月24日
Arxiv
4+阅读 · 2018年5月21日
VIP会员
相关VIP内容
【KDD2020】自适应多通道图卷积神经网络
专知会员服务
119+阅读 · 2020年7月9日
基于深度神经网络的少样本学习综述
专知会员服务
167+阅读 · 2020年4月22日
【CVPR2020-CMU】无数据模型选择,一种深度框架潜力
专知会员服务
21+阅读 · 2020年4月12日
【图神经网络(GNN)结构化数据分析】
专知会员服务
114+阅读 · 2020年3月22日
相关资讯
机器也能学会如何学习?——元学习介绍
AINLP
19+阅读 · 2019年9月22日
已删除
将门创投
4+阅读 · 2018年11月15日
机器学习的5种距离度量方法
七月在线实验室
9+阅读 · 2018年5月18日
【干货】监督学习与无监督学习简介
专知
13+阅读 · 2018年4月4日
干货|深度神经网络(DNN)反向传播算法(BP)
全球人工智能
7+阅读 · 2018年1月12日
深度学习和普通机器学习之间有何区别?
36大数据
7+阅读 · 2017年12月4日
神经网络bp算法推导
统计学习与视觉计算组
11+阅读 · 2017年11月17日
【选介】基于全卷积网络的迭代非盲反卷积
机器学习研究会
7+阅读 · 2017年9月12日
Top
微信扫码咨询专知VIP会员