Wan2.7-Video 是阿里巴巴发布的一款视频生成系列模型。它的核心特点是拥有全面的创作控制力,将 AI 的能力从单一的素材生成扩展至“生成、编辑、复刻、重塑”等创作全链路,实现了从被动“演绎”到主动“导演”的跨越。
该系列模型支持文本、图像、视频、音频的全模态输入,能够输出 720P 和 1080P 分辨率、时长为 2 至 15 秒的视频。

四大核心模型
Wan2.7-Video 并非单一模型,而是由四个专业模型组成的统一创作体系,分别对应不同的创作环节:
- 文生视频 (Wan2.7-t2v):从零开始的创作,只需一段文字描述即可生成视频。
- 图生视频 (Wan2.7-i2v):基于静态图像进行画面控制和动态化创作。
- 参考生视频 (Wan2.7-r2v):通过参考视频或图像,复刻动作、运镜、特效和角色外观音色。
- 视频编辑 (Wan2.7-videoedit):对已有视频进行精细化的修改和重塑。
主要功能亮点
- 精准的视频指令编辑
直击后期修改成本高的痛点,用户可以用一句话对视频进行局部或整体修改。- 元素操作:轻松实现“删掉视频中的火车”、“把胶片替换成盘子”等指令。
- 环境与风格变换:可将场景从晴天变为雨天,或将整体视觉风格从写实转为黏土动画。
- 强大的剧情与角色控制
模型在叙事可控性上展现出强大灵活性,让视频像文档一样可编辑。- 角色修改:可以修改角色的行为(如“坐着的女生变为站着”)、表情和情绪。
- 台词替换:支持修改角色台词,并能自动匹配口型、情绪与音色,保持角色一致性。
- 拍摄方式调整:可重新定义机位、视角、景别,甚至实现希区柯克式变焦、360度环绕等高难度运镜。
- 高质量的参考复刻
在参考生视频方面,模型能够精准迁移人物动作和运镜,即使是大幅度的复杂动作也能稳定还原。它最多支持 5 个视频主体参考,让每个角色在不同镜头中都能保持外观和音色的锁定。 - 智能的叙事连贯性
为解决 AI 视频叙事不连贯的短板,Wan2.7-Video 引入了“视频续写 + 尾帧控制”的联合机制。创作者可以在续写剧情的同时指定结尾画面,既保证了动态的自然延续,又实现了对画面结构的精准把控。
如何体验
目前,你可以通过以下官方渠道体验 Wan2.7-Video 模型:
- 阿里云百炼
- 万相官网
此外,全新的万相 2.7 视频生成模型也已在 千问App 上线。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...



