Joint relation modeling is a curial component in human motion prediction. Most existing methods tend to design skeletal-based graphs to build the relations among joints, where local interactions between joint pairs are well learned. However, the global coordination of all joints, which reflects human motion's balance property, is usually weakened because it is learned from part to whole progressively and asynchronously. Thus, the final predicted motions are sometimes unnatural. To tackle this issue, we learn a medium, called balance attractor (BA), from the spatiotemporal features of motion to characterize the global motion features, which is subsequently used to build new joint relations. Through the BA, all joints are related synchronously, and thus the global coordination of all joints can be better learned. Based on the BA, we propose our framework, referred to Attractor-Guided Neural Network, mainly including Attractor-Based Joint Relation Extractor (AJRE) and Multi-timescale Dynamics Extractor (MTDE). The AJRE mainly includes Global Coordination Extractor (GCE) and Local Interaction Extractor (LIE). The former presents the global coordination of all joints, and the latter encodes local interactions between joint pairs. The MTDE is designed to extract dynamic information from raw position information for effective prediction. Extensive experiments show that the proposed framework outperforms state-of-the-art methods in both short and long-term predictions in H3.6M, CMU-Mocap, and 3DPW.


翻译:联合关系建模是人类运动预测的一个曲解部分。 多数现有方法倾向于设计基于骨骼的图表,以构建联合体之间的关系, 从而让共同体之间能够很好地相互交流。 但是,所有联合体(反映了人类运动的平衡属性)的全球协调通常会因为从部分到整体的学习而削弱。 因此,最后预测的动作有时是非自然的。 要解决这个问题,我们从运动的表面时空特征中学习一种介质,称为平衡吸引器(BA),以描述全球运动特征,随后又用来建立新的联合关系。 通过BA,所有联合体是同步的,因此可以更好地了解所有联合体的全球性协调,反映了人类运动的平衡属性。根据BA,我们提出了我们的框架,从部分到整体逐步地逐步地学到了吸引者指导神经网络,主要包括以吸引者为基础的联合关系提取器(AJRE)和多时间级动态动力提取器(MDDEP)提取器(MDAR), AJRE主要包括全球联合协调提取器(GCE)和本地互动器(LIE), 在动态模型中, 后期中, 展示了全球信息流流流流流流流中, 和模型中, 展示了全球信息的组合中, 和模型中, 展示了全球信息流流流流流流流流中的所有数据-MU。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
专知会员服务
86+阅读 · 2020年12月5日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
SkeletonNet:完整的人体三维位姿重建方法
极市平台
11+阅读 · 2019年1月11日
【推荐】RNN最新研究进展综述
机器学习研究会
26+阅读 · 2018年1月6日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
原创 | Attention Modeling for Targeted Sentiment
黑龙江大学自然语言处理实验室
25+阅读 · 2017年11月5日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Uncertainty-aware Human Motion Prediction
Arxiv
0+阅读 · 2021年7月8日
Arxiv
24+阅读 · 2018年10月24日
VIP会员
相关VIP内容
专知会员服务
86+阅读 · 2020年12月5日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
SkeletonNet:完整的人体三维位姿重建方法
极市平台
11+阅读 · 2019年1月11日
【推荐】RNN最新研究进展综述
机器学习研究会
26+阅读 · 2018年1月6日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
原创 | Attention Modeling for Targeted Sentiment
黑龙江大学自然语言处理实验室
25+阅读 · 2017年11月5日
【推荐】视频目标分割基础
机器学习研究会
9+阅读 · 2017年9月19日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员