什么是 video-generate?
使用 Seedance 模型生成视频。当用户想要根据文本提示、图像或参考材料创建视频时调用。 来源:bytedance/agentkit-samples。
使用 Seedance 模型生成视频。当用户想要根据文本提示、图像或参考材料创建视频时调用。
通过命令行快速安装 video-generate AI 技能到你的开发环境
来源:bytedance/agentkit-samples。
Before using this skill, ensure the following environment variables are set:
A list of video generation requests. Each item is a dict with the following fields:
Based on the script return info, the final response returned to the user consists of a description of the video generation task and the video URL(s). You may download the video from the URL, but the video URL should still be provided to the user for viewing and downloading.
使用 Seedance 模型生成视频。当用户想要根据文本提示、图像或参考材料创建视频时调用。 来源:bytedance/agentkit-samples。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/bytedance/agentkit-samples --skill video-generate使用 Seedance 模型生成视频。当用户想要根据文本提示、图像或参考材料创建视频时调用。 来源:bytedance/agentkit-samples。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/bytedance/agentkit-samples --skill video-generate 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/bytedance/agentkit-samples