Recent advances in neural portrait animation have demonstrated remarked potential for applications in virtual avatars, telepresence, and digital content creation. However, traditional explicit warping approaches often struggle with accurate motion transfer or recovering missing regions, while recent attention-based warping methods, though effective, frequently suffer from high complexity and weak geometric grounding. To address these issues, we propose SynergyWarpNet, an attention-guided cooperative warping framework designed for high-fidelity talking head synthesis. Given a source portrait, a driving image, and a set of reference images, our model progressively refines the animation in three stages. First, an explicit warping module performs coarse spatial alignment between the source and driving image using 3D dense optical flow. Next, a reference-augmented correction module leverages cross-attention across 3D keypoints and texture features from multiple reference images to semantically complete occluded or distorted regions. Finally, a confidence-guided fusion module integrates the warped outputs with spatially-adaptive fusing, using a learned confidence map to balance structural alignment and visual consistency. Comprehensive evaluations on benchmark datasets demonstrate state-of-the-art performance.


翻译:神经肖像动画的最新进展在虚拟化身、远程呈现和数字内容创作等领域展现出显著的应用潜力。然而,传统的显式形变方法常常难以实现精确的运动迁移或恢复缺失区域,而近期基于注意力的形变方法虽然有效,却普遍面临复杂度高和几何基础薄弱的问题。为解决这些问题,我们提出了SynergyWarpNet,一个为高保真说话头部合成而设计的注意力引导协同形变框架。给定源肖像、驱动图像和一组参考图像,我们的模型分三个阶段逐步优化动画。首先,一个显式形变模块利用3D稠密光流在源图像与驱动图像之间进行粗略的空间对齐。接着,一个参考增强校正模块利用来自多张参考图像的3D关键点和纹理特征的交叉注意力,以语义方式补全被遮挡或扭曲的区域。最后,一个置信度引导的融合模块通过空间自适应融合整合形变输出,利用学习到的置信度图来平衡结构对齐与视觉一致性。在基准数据集上的综合评估证明了其最先进的性能。

0
下载
关闭预览

相关内容

【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
48+阅读 · 2020年12月26日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员