Wan2.7-Video – 阿里巴巴发布的一款视频生成系列模型

Wan2.7-Video 是阿里巴巴发布的一款视频生成系列模型。它的核心特点是拥有全面的创作控制力,将 AI 的能力从单一的素材生成扩展至“生成、编辑、复刻、重塑”等创作全链路,实现了从被动“演绎”到主动“导演”的跨越。

该系列模型支持文本、图像、视频、音频的全模态输入,能够输出 720P 和 1080P 分辨率、时长为 2 至 15 秒的视频。

Wan2.7-Video - 阿里巴巴发布的一款视频生成系列模型

四大核心模型

Wan2.7-Video 并非单一模型,而是由四个专业模型组成的统一创作体系,分别对应不同的创作环节:
  1. 文生视频 (Wan2.7-t2v):从零开始的创作,只需一段文字描述即可生成视频。
  2. 图生视频 (Wan2.7-i2v):基于静态图像进行画面控制和动态化创作。
  3. 参考生视频 (Wan2.7-r2v):通过参考视频或图像,复刻动作、运镜、特效和角色外观音色。
  4. 视频编辑 (Wan2.7-videoedit):对已有视频进行精细化的修改和重塑

主要功能亮点

  • 精准的视频指令编辑
    直击后期修改成本高的痛点,用户可以用一句话对视频进行局部或整体修改。
    • 元素操作:轻松实现“删掉视频中的火车”、“把胶片替换成盘子”等指令。
    • 环境与风格变换:可将场景从晴天变为雨天,或将整体视觉风格从写实转为黏土动画
  • 强大的剧情与角色控制
    模型在叙事可控性上展现出强大灵活性,让视频像文档一样可编辑。
    • 角色修改:可以修改角色的行为(如“坐着的女生变为站着”)、表情和情绪。
    • 台词替换:支持修改角色台词,并能自动匹配口型、情绪与音色,保持角色一致性
    • 拍摄方式调整:可重新定义机位、视角、景别,甚至实现希区柯克式变焦、360度环绕等高难度运镜
  • 高质量的参考复刻
    在参考生视频方面,模型能够精准迁移人物动作和运镜,即使是大幅度的复杂动作也能稳定还原。它最多支持 5 个视频主体参考,让每个角色在不同镜头中都能保持外观和音色的锁定
  • 智能的叙事连贯性
    为解决 AI 视频叙事不连贯的短板,Wan2.7-Video 引入了“视频续写 + 尾帧控制”的联合机制。创作者可以在续写剧情的同时指定结尾画面,既保证了动态的自然延续,又实现了对画面结构的精准把控

如何体验

目前,你可以通过以下官方渠道体验 Wan2.7-Video 模型:
  • 阿里云百炼
  • 万相官网
此外,全新的万相 2.7 视频生成模型也已在 千问App 上线
© 版权声明

相关文章

暂无评论

none
暂无评论...