在短视频创作、舞蹈模板生成以及动漫制作等创意领域,创作者们一直渴望有更强大的工具来助力,让动态内容的制作变得更加轻松高效。2025年9月19日,阿里云带来了一个重磅消息——通义万相全新动作生成模型 Wan2.2-Animate 正式开源,这一举措无疑为相关领域注入了新的活力,有望推动整个行业迈向新的高度。

升级蜕变,性能超越众多对手
Wan2.2-Animate 并非横空出世,它是在之前的 Animate Anyone 模型基础上进行全面升级的成果。经过这次升级,在人物一致性和生成质量等方面都有了显著提升。在实际应用中,它的表现更是亮眼。在视频生成质量、主体一致性和感知损失等关键指标上,超越了许多开源模型,像StableAnimator和LivePortrait都被它甩在了身后,成为了当前性能最强的动作生成模型。而且在用户的主观评测中,其表现甚至超过了Runway Act-two等闭源模型,这足以证明它的实力。
两大模式,满足多样创作需求
这个模型支持两种主要的应用模式,分别是动作模仿和角色扮演,能满足创作者不同的创作需求。
在动作模仿模式下,操作十分简单。用户只需输入一张角色图片和一段参考视频,模型就能大显身手,将视频中的角色动作和表情迁移到用户提供的图片角色上,让原本静态的角色“动”起来,实现精彩的动态表现。比如你想让自己喜欢的动漫角色做出一段酷炫的舞蹈动作,就可以找一段舞蹈视频,再提供该动漫角色的图片,Wan2.2-Animate 就能帮你实现这个想法。
而在角色扮演模式中,模型同样表现出色。它能够在保留原视频的动作、表情和环境的基础上,把视频中的角色替换为用户提供的角色。想象一下,你可以让自己喜欢的明星“变身”成动漫角色,在熟悉的场景中演绎精彩的剧情,是不是很有趣?
背后技术支撑,保障生成效果
为了提升 Wan2.2-Animate 的生成效果,通义万相团队可是下了不少功夫。他们建立了一个大规模的人物视频数据集,这个数据集可不简单,涵盖了说话、面部表情和身体动作等多种元素。有了这个丰富的数据集,再使用通义万相图生视频模型进行后续训练,为模型的强大性能奠定了基础。
在设计方面,Wan2.2-Animate 也独具匠心。它使得角色信息、环境信息和动作等能够被规范化到统一的表示格式,从而兼容两种推理模式。针对身体运动和面部表情,模型分别使用骨骼信号和隐式特征,结合动作重定向模块,实现高精度的动作和表情复刻。此外,为了保证完美的光照效果,团队还特别设计了一个独立的光照融合 LoRA,让生成的视频更加逼真自然。
开源模型获取地址
对于广大创作者来说,获取和使用 Wan2.2-Animate 模型非常方便。阿里云提供了多种途径,用户可以通过 GitHub、HuggingFace和魔搭社区 轻松下载模型及相关代码。要是觉得下载代码操作起来有点复杂,也没关系,还能利用阿里云的百炼平台调用API,或者在通义万相官网直接体验该模型的强大功能,真正做到了让技术触手可及。
- 体验地址:通义万相网页版官网
- 模型地址: https://huggingface.co/Wan-AI/Wan2.2-Animate-14B (海外网站需要科学上网)
- 魔搭社区:https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B
- GitHub:https://github.com/Wan-Video/Wan2.2
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码:









