[CVPR2020-Oral-FAIR-UIUC]使用原力,卢克!学习通过模拟效应来预测物理力

2020 年 3 月 27 日 专知

当我们人类观看人机交互的视频时,我们不仅可以推断出发生了什么,我们甚至可以提取可操作的信息并模仿这些交互。另一方面,当前的识别或几何方法缺乏动作表征的物质性。在这篇论文中,我们朝着对行为的物理理解迈出了一步。我们解决了从人类与物体互动的视频中推断接触点和物理力的问题。解决这一问题的主要挑战之一是为物理力取得真实标签。我们通过使用物理模拟器来进行监督,从而避免了这个问题。具体来说,我们使用一个模拟器来预测效果,并执行估计的力必须导致与视频中描述的相同的效果。我们定量和定性结果表明,(a)我们可以从视频中预测有意义的力,这能够导致对观察动作的准确模仿,(b)通过为接触点和力预测联合优化,我们可以在所有任务提高性能相比,和(c)我们可以从这个模型学习一个表示,泛化到使用小样本的物体上。

https://www.zhuanzhi.ai/paper/fb476420913c6ceb3585e71535c14c89



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“PFSE” 就可以获取[CVPR2020-Oral-FAIR-UIUC]使用原力,卢克!学习通过模拟效应来预测物理力》专知下载链接

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取5000+AI主题知识资源
登录查看更多
0

相关内容

【CVPR2020-Oral】用于深度网络的任务感知超参数
专知会员服务
25+阅读 · 2020年5月25日
【论文】欺骗学习(Learning by Cheating)
专知会员服务
26+阅读 · 2020年1月3日
CVPR2020接收论文开源代码
专知
30+阅读 · 2020年2月29日
多模态多任务学习新论文
专知
46+阅读 · 2019年2月9日
新任务&数据集:视觉常识推理(VCR)
专知
50+阅读 · 2018年12月1日
Arxiv
9+阅读 · 2019年4月19日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
4+阅读 · 2019年4月3日
Scale-Aware Trident Networks for Object Detection
Arxiv
4+阅读 · 2019年1月7日
VIP会员
Top
微信扫码咨询专知VIP会员