37 / 2022-09-19 11:07:55
融合时间卷积网络的空间自适应运动风格迁移方法
终稿
张凤全 / 北京邮电大学
为避免大量运动数据的采集,基于深度学习的人体运动风格迁移成为虚拟现实动画仿真中有效的解决方案。然

而,现有的方法要么依赖成对的运动数据集,要么依赖有监督的学习训练,从而加大了数据处理和训练的成本。 本文受

深度学习下的图像风格迁移启发, 通过参考先进的图像风格迁移网络处理方法, 提出一种融合时间卷积网络的空间自适

应运动风格迁移模型, 通过输入虚拟角色运动行为,生成不同的运动风格的运动序列。 首先从时序性和空间性考虑,设

计了以时间卷积网络为主干的神经网络框架, 从无配对的数据集中准确提取运动数据的内容特征和风格特征。 然后基于

空间自适应归一化方法,将其改进并适配到运动解码器中,提出了适用于运动风格迁移的自适应改进方法。最后针对运

动迁移中的误差, 在网络中引入正向运动学对沿运动链传递的关节误差进行约束,实现了对足部行为的约束。实验结果

表明,本文提出的模型可以有效实现多类非配对数据的风格迁移, 所生成的动画效果自然真实。

 
重要日期
  • 会议日期

    11月18日

    2022

    11月20日

    2022

  • 10月25日 2022

    初稿截稿日期

  • 11月20日 2022

    终稿截稿日期

  • 11月21日 2022

    注册截止日期

主办单位
中国仿真学会
中国图象图形学会
中国计算机学会
承办单位
北京航空航天大学云南研究院
云南大学
云南艺术学院
昆明理工大学
协办单位
虚拟现实技术与系统国家重点实验室(北京航空航天大学)
北京市混合现实与新型显示工程技术研究中心(北京理工大学)
计算机辅助设计与图形学国家重点实验室(浙江大学)
文旅部闽台非遗文化数字化保护与智能处理文化和旅游部重点实验室(厦门大学)
云南省人工智能重点实验室(昆明理工大学)
历届会议
移动端
在手机上打开
小程序
打开微信小程序
客服
扫码或点此咨询