什么是 seedance?
为字节跳动 Seedance 2.0(即梦)生成可用于生产的中文视频提示。当用户提及“Seedance”、“即梦”、“视频提示词”、“视频生成”、“AI视频”、“短剧”、“广告视频”、“延长视频”,或要求创建视频提示或视频描述时使用。 来源:mapleshaw/seedance2.0-prompt-skill。
为字节跳动 Seedance 2.0(即梦)生成可用于生产的中文视频提示。当用户提及“Seedance”、“即梦”、“视频提示词”、“视频生成”、“AI视频”、“短剧”、“广告视频”、“延长视频”,或要求创建视频提示或视频描述时使用。
通过命令行快速安装 seedance AI 技能到你的开发环境
来源:mapleshaw/seedance2.0-prompt-skill。
| 1 | 一致性控制 | [角色]@图片N + [动作/剧情] + [场景]@图片N | 人脸、服装、字体细节,前后一致 | | 2 | 运镜/动作复刻 | 参考@视频1的[运镜/动作/节奏] + [主体]@图片N | 上传参考视频即可复刻走位和镜头 | | 3 | 创意/特效复刻 | 参考@视频1的[特效/转场] + 将[元素]替换为@图片N | 转场、广告成片、复杂剪辑均可复刻 | | 4 | 剧情补全 | [分镜脚本/图片描述] + [演绎方式] + [音效/台词] | 模型有强创意性,可自动补全剧情 | | 5 | 视频延长 | 将@视频1延长Xs + [新增内容] | 平滑延长衔接,可"接着拍" | | 6 | 声音控制 | [画面] + 音色参考@视频1 + "台词" | 音色更准,声音更真 |
| 7 | 一镜到底 | 一镜到底 + @图片1@图片2... + 全程不切镜头 | 镜头连贯性显著增强 | | 8 | 视频编辑 | 将@视频1中的[A]换成@图片1 + [修改说明] | 角色更替、删减、增加,无需重头生成 | | 9 | 音乐卡点 | @图片1...@图片N + 参考@视频1的画面节奏/卡点 | 画面节奏与音乐节拍精准匹配 | | 10 | 情绪演绎 | [角色] + [情绪变化描述] + [运镜配合] | 表情从绝望转为坚定等细腻情绪表达 |
与基础结构的四点核心差异: 品质锚定:开头声明渲染引擎/VFX等级("UE5渲染,工业光魔级VFX"),效果远优于泛词"电影感" 大气连贯声明:全片统一物理效果("每帧薄雾弥散"),防止不同镜头氛围断裂 光影三层:光源 → 光行为 → 色调,三层各司其职,精准度远高于泛写"光线好" 收束句:后期处理词 + 张力宣言,为全片定格情绪与视觉风格
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/mapleshaw/seedance2.0-prompt-skill --skill seedance为字节跳动 Seedance 2.0(即梦)生成可用于生产的中文视频提示。当用户提及“Seedance”、“即梦”、“视频提示词”、“视频生成”、“AI视频”、“短剧”、“广告视频”、“延长视频”,或要求创建视频提示或视频描述时使用。 来源:mapleshaw/seedance2.0-prompt-skill。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/mapleshaw/seedance2.0-prompt-skill --skill seedance 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/mapleshaw/seedance2.0-prompt-skill