高级检索
张凤全, 李凭辙, 雷劼睿. 融合时间卷积网络的空间自适应运动风格迁移方法[J]. 计算机辅助设计与图形学学报.
引用本文: 张凤全, 李凭辙, 雷劼睿. 融合时间卷积网络的空间自适应运动风格迁移方法[J]. 计算机辅助设计与图形学学报.
A Spatially Adaptive Motion Style Transfer Method with Temporal Convolutional Network[J]. Journal of Computer-Aided Design & Computer Graphics.
Citation: A Spatially Adaptive Motion Style Transfer Method with Temporal Convolutional Network[J]. Journal of Computer-Aided Design & Computer Graphics.

融合时间卷积网络的空间自适应运动风格迁移方法

A Spatially Adaptive Motion Style Transfer Method with Temporal Convolutional Network

  • 摘要: 针对人体运动生成方法严重依赖有监督学习和成对数据集的问题, 受图像风格迁移方法启发, 提出一个融合时间卷积网络的空间自适应运动风格迁移模型, 通过输入虚拟角色运动行为, 生成不同的运动风格的运动序列. 首先, 从时序性和空间性考虑, 设计以时间卷积网络为主干的神经网络框架, 从无配对的数据集中准确提取运动数据的内容特征和风格特征. 其次, 基于空间自适应归一化方法, 将其改进并适配到运动解码器中, 提出一种适用于运动风格迁移的自适应方法. 最后, 针对运动迁移中的误差问题, 在网络中引入正向运动学对沿运动链传递的关节误差进行约束, 实现了对足部运动行为的约束. 为验证所提方法性能, 使用CMU和Xia开源数据集依次从主成分分析、数据聚类、可视化等指标进行实验. 结果表明, 提出的模型可以有效实现多类非配对数据的风格迁移, 所生成的动画效果自然真实, 具有良好的互动性和扩展性, 可广泛应用于数字动画相关的虚拟人建模中.

     

/

返回文章
返回