Motor imitation impairments are commonly reported in individuals with autism spectrum conditions (ASCs), suggesting that motor imitation could be used as a phenotype for addressing autism heterogeneity. Traditional methods for assessing motor imitation are subjective, labor-intensive, and require extensive human training. Modern Computerized Assessment of Motor Imitation (CAMI) methods, such as CAMI-3D for motion capture data and CAMI-2D for video data, are less subjective. However, they rely on labor-intensive data normalization and cleaning techniques, and human annotations for algorithm training. To address these challenges, we propose CAMI-2DNet, a scalable and interpretable deep learning-based approach to motor imitation assessment in video data, which eliminates the need for data normalization, cleaning and annotation. CAMI-2DNet uses an encoder-decoder architecture to map a video to a motion encoding that is disentangled from nuisance factors such as body shape and camera views. To learn a disentangled representation, we employ synthetic data generated by motion retargeting of virtual characters through the reshuffling of motion, body shape, and camera views, as well as real participant data. To automatically assess how well an individual imitates an actor, we compute a similarity score between their motion encodings, and use it to discriminate individuals with ASCs from neurotypical (NT) individuals. Our comparative analysis demonstrates that CAMI-2DNet has a strong correlation with human scores while outperforming CAMI-2D in discriminating ASC vs NT children. Moreover, CAMI-2DNet performs comparably to CAMI-3D while offering greater practicality by operating directly on video data and without the need for ad-hoc data normalization and human annotations.


翻译:运动模仿障碍常见于自闭症谱系状况个体,表明运动模仿可作为应对自闭症异质性的表型指标。传统的运动模仿评估方法具有主观性强、劳动密集且需要大量人工训练的局限性。现代计算机化运动模仿评估方法(如针对运动捕捉数据的CAMI-3D和针对视频数据的CAMI-2D)虽降低了主观性,但仍依赖于劳动密集型的数据标准化与清洗技术,以及算法训练所需的人工标注。为应对这些挑战,我们提出CAMI-2DNet——一种基于深度学习的可扩展且可解释的视频数据运动模仿评估方法,该方法无需数据标准化、清洗及标注。CAMI-2DNet采用编码器-解码器架构,将视频映射为与体型、摄像机视角等干扰因素解耦的运动编码。为学习解耦表示,我们通过虚拟角色的运动重定向技术,对运动序列、体型参数和摄像机视角进行重组生成合成数据,并结合真实参与者数据进行训练。为自动评估个体的模仿程度,我们计算其运动编码与示范者之间的相似度得分,并据此区分自闭症谱系状况个体与神经典型个体。对比分析表明,CAMI-2DNet与人工评分具有强相关性,且在区分自闭症与神经典型儿童方面优于CAMI-2D。此外,CAMI-2DNet与CAMI-3D性能相当,同时具备更强的实用性:可直接处理视频数据,且无需专门的数据标准化流程和人工标注。

0
下载
关闭预览

相关内容

图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员