阿里云旗下通义万相宣布,全新动作生成模型 Wan2.2-Animate 正式开源,为短视频创作、舞蹈模板生成、动漫制作等领域带来全新的创作工具。即日起,用户可在 Github、HuggingFace 和魔搭社区下载模型和代码,也可以在阿里云百炼平台调用 API,或通过通义万相官网直接体验。
Wan2.2-Animate 模型基于通义万相此前开源的 Animate Anyone 模型全面升级,不仅在人物一致性、生成质量等指标上大幅提升,还同时支持动作模仿和角色扮演两种模式。在角色模仿模式下,用户仅需输入一张角色图片和一段参考视频,即可将视频角色的动作、表情迁移到图片角色中,赋予静态图片角色以动态表现力;而角色扮演模式则可在保留原始视频的动作、表情及环境的基础上,将视频中的角色替换为用户提供图片中的角色,实现创意性的角色置换。
为实现技术突破,通义万相团队构建了一个涵盖说话、面部表情和身体动作的大规模人物视频数据集,并基于通义万相图生视频模型进行后训练。Wan2.2-Animate 将角色信息、环境信息和动作等规范到一种统一的表示格式,实现了单一模型同时兼容两种推理模式。针对身体运动和脸部表情,模型分别使用骨骼信号和隐式特征,配合动作重定向模块,实现动作和表情的精准复刻。在替换模式中,团队还设计了一个独立的光照融合 LoRA,用于保证完美的光照融合效果,使得替换后的角色能够自然融入原始场景的光照与色调环境中。
实测结果显示,Wan2.2-Animate 在视频生成质量、主体一致性和感知损失等关键指标上,超越了 StableAnimator、LivePortrait 等开源模型,成为目前性能最强的动作生成模型。在人类主观评测中,Wan2.2-Animate 的表现甚至超越了以 Runway Act-two 为代表的闭源模型,得到了专业评审和用户的高度认可。
自 2025 年 2 月以来,通义万相已连续开源 20 多款模型,在开源社区和三方平台的下载量已超 3000 万,是开源社区最受欢迎的视频生成模型家族之一。目前,通义万相模型家族已支持文生图、文生视频、图生视频、人声生视频和动作生成等 10 多种视觉创作能力,持续推动着 AIGC(人工智能生成内容)技术在创意领域的普及与应用,让更多创作者能够借助先进的 AI 技术释放无限的创意潜能 。来源
.
.
.
