阿里巴巴开源生成模型通义万相Wan2.2,首创电影

2025-07-28 20:55:20

  今晚,阿里开源生成模型,此次共开源文生、图生和统一生成三款模型,其中文生模型和图生模型均为业界首个使用 MoE 架构的生成模型,总参数量为 27B,激活参数 14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。

  开发者可在 GitHub、HuggingFace、魔搭社区下载模型和代码,企业可在阿里云百炼调用模型 API,用户还可在通义万相官网和通义 App 直接体验。

  据官方介绍,通义万相 2.2 率先在生成扩散模型中引入 MoE 架构,有效解决生成处理 Token 过长导致的计算资源消耗大问题。Wan2.2-T2V-A14B、Wan2.2-I2V-A14B 两款模型均由高噪声专家模型和低噪专家模型组成,分别负责的整体布局和细节完善,在同参数规模下,可节省约 50% 的计算资源消耗,在模型能力上,通义万相 2.2 在复杂运动生成、人物交互、美学表达、复杂运动等维度上也取得了显著提升。

  Wan2.2 还首创了,光影、色彩、构图、微表情等能力媲美专业电影水平。例如,用户输入、、、等关键词,模型可自动生成金色的落日余晖的浪漫画面;使用、、、的组合,则可以生成接近科幻片的画面效果。

  通义万相还开源了一款 5B 小尺寸的统一生成模型,单一模型同时支持文生和图生,可在消费级显卡部署。该模型采用了高压缩率 3D VAE 架构,时间与空间压缩比达到高达 4×16×16,信息压缩率提升至 64,均实现了开源模型的最高水平,仅需 22G 显存即可在数分钟内生成 5 秒高清,是目前 24 帧每秒、720P 像素级的生成速度最快的基础模型。

  自今年 2 月以来,通义万相已连续开源文生、图生、首尾帧生和全能GitHub:

  HuggingFace:

  魔搭社区:

下一篇:苹果电影《F1:狂飙飞车》全球票房破5亿美元
上一篇:本田 N-ONE e: 纯电小车日本发布,续航超 270 公里
返回顶部小火箭