✨ 产品发布2026-04-03

阿里通义实验室发布Wan2.7-Video视频生成模型

🎬 阿里云通义实验室推出Wan2.7-Video,支持全模态输入,让AI视频创作像剪辑软件一样灵活可控!

📌 核心突破

2026年4月3日,阿里云通义实验室发布Wan2.7-Video视频生成模型,支持文本、图像、视频、音频全模态输入,解决了当前AI视频生成"内容不专业"和"编辑困难"两大痛点。🎬

🎨 全模态输入
📊 四种输入模态

📝

文本

用文字描述想要的视频内容

🖼️

图像

用图片作为视频的起点或参考

🎬

视频

基于现有视频进行修改和创作

🎤

音频

用声音控制视频的节奏和氛围

💡
就像一个全能的视频工作室,各种素材都能用!
✂️ 强大的编辑能力
1️⃣ 精确的元素编辑

Wan2.7-Video可以精确控制视频中的每个元素,就像专业剪辑软件一样灵活。

🗑️

移除路人

不小心拍到路人?一键移除,背景自动填充

🔄

替换物体

把杯子换成花瓶,把车换成自行车

🌳

改变背景

夏季场景一键变成秋冬,背景随心换

2️⃣ 一键风格切换

不需要重新拍摄,一键切换视频风格,让同一素材呈现不同视觉效果。

🎨 风格转换示意

📹

原始视频

写实风格

AI转换

🎨

油画风

🖼️

动漫风

🎬

电影风

3️⃣ 剧情修改能力

最强大的功能:无需重新拍摄即可更改角色的对话、动作和摄像机角度!

传统视频制作Wan2.7-Video

❌ 需要重新拍摄

❌ 场景搭建成本高

❌ 演员档期协调难

❌ 天气光线不可控

✅ 直接修改原视频

✅ AI自动生成场景

✅ 无需演员配合

✅ 完全可控

🔄 创意复制与延续
📦 复用与延续

Wan2.7-Video可以快速复用现有视频中的动作、镜头和特效,通过精确的时间控制实现无缝场景过渡。

🎬 故事延续流程
📹

提取动作

从参考视频中提取角色的动作模式

🎞️

复制镜头

复用运镜方式和转场效果

⏱️

精确时间控制

实现无缝场景过渡,增强故事流畅性

🎯 解决的痛点
❌ 痛点1:内容不专业

传统AI视频生成的问题:

• 动作僵硬,像机器人

• 场景不连贯,逻辑混乱

• 细节不真实,一看就是AI

✅ Wan2.7-Video:精确控制每个元素,专业级输出
❌ 痛点2:编辑困难

传统AI视频生成的问题:

• 只能重新生成,不能改

• 小修改要重新跑一遍

• 无法精确定位问题帧

✅ Wan2.7-Video:像剪辑软件一样灵活编辑
💡 适用场景
🎬 应用领域

🎥

影视制作

快速预览、修改镜头

📱

短视频创作

批量生产、快速迭代

📢

广告营销

多版本测试、快速调整

🎓

教育培训

场景化教学内容生成

💡 总结

📝 要点回顾

全模态输入:文本、图像、视频、音频全支持

精确编辑:移除、替换、改变背景、风格切换

剧情修改:无需重拍即可改对话、动作、镜头

创意复用:快速复用动作、镜头、特效

无缝过渡:精确时间控制,故事更流畅

🎉 Wan2.7-Video让AI视频创作从"一次性生成"进化到"灵活编辑"!
就像从只能拍照的相机,升级到了专业视频剪辑软件,创作自由度大幅提升。
📖 阅读时间:约11分钟