阿里开源全球最强动作生成模型,Wan2.2-Animate引爆数字创作革命

AI广播站1个月前更新 小悠
39 0 0

2025年9月19日,阿里巴巴通义万相团队正式宣布开源全新动作生成模型Wan2.2-Animate,该模型凭借卓越的视频生成质量和技术创新,被誉为当前性能最强的动作生成模型

即日起,全球开发者和创作者可通过Github、HuggingFace和魔搭社区免费下载模型代码,体验这一尖端AI技术。


01 模型能力:从静态到动态的革命性飞跃

Wan2.2-Animate支持驱动多种类型的图像主体,包括真实人物、动漫形象和动物照片,能够将静态图片转化为流畅的动态视频。

该模型基于此前开源的Animate Anyone模型进行全面升级,在人物一致性、生成质量等关键指标上均有大幅提升。

02 双模式驱动:角色模仿与角色扮演

Wan2.2-Animate独创性地同时支持两种生成模式。在“角色模仿”模式下,模型能够将参考视频中的动作和表情精准迁移到用户提供的角色图片上。

而“角色扮演”模式则更加先进,可在保留原始视频动作、表情及环境的基础上,直接将视频中的角色替换为图片中的新角色,实现了真正的角色替换功能。

03 技术突破:统一表示格式与精准表情控制

技术层面上,通义万相团队构建了涵盖说话、面部表情和身体动作的大规模人物视频数据集,并基于通义万相图生视频模型进行后训练。

团队将角色信息、环境信息和动作等规范到一种统一的表示格式,实现了单一模型同时兼容两种推理模式。

针对身体运动和脸部表情,模型分别使用骨骼信号和隐式特征,配合动作重定向模块,实现了动作和表情的精准复刻。还专门设计了独立的光照融合LoRA,保证完美的光照融合效果。

04 性能表现:超越开源与闭源模型的标杆

实测结果显示,Wan2.2-Animate在视频生成质量、主体一致性和感知损失等关键指标上,全面超越了StableAnimator、LivePortrait等开源模型。

令人印象深刻的是,在人类主观评测中,Wan2.2-Animate甚至超越了以Runway Act-two为代表的闭源模型,确立了其在动作生成领域的领先地位。

05 应用场景:从短视频到动漫制作的多领域覆盖

这一技术创新为多个行业提供了强大工具。Wan2.2-Animate可广泛应用于短视频创作、舞蹈模板生成、动漫制作等领域。

对内容创作者而言,这意味着能够以极低成本实现高质量动画效果,大幅降低视频制作的技术门槛和时间成本。

模型的开源策略进一步降低了使用门槛,让全球开发者和创作者都能享受到这一尖端技术红利。


Wan2.2-Animate的开源标志着AI视频生成技术进入新阶段。它不仅击败了StableAnimator、LivePortrait等开源对手,更在人类主观评测中超越了Runway Act-two等闭源模型。

随着这一技术的普及,我们即将迎来一个全民动画师时代——任何人都能将静态图片转化为生动视频,讲述自己的动态故事。

关注 “悠AI” 更多干货技巧行业动态

© 版权声明
广告也精彩

相关文章

暂无评论

您必须登录才能参与评论!
立即登录
暂无评论...