什麼是 video-generate?
使用 Seedance 模型產生影片。當用戶想要根據文字提示、圖像或參考材料建立影片時調用。 來源:bytedance/agentkit-samples。
使用 Seedance 模型產生影片。當用戶想要根據文字提示、圖像或參考材料建立影片時調用。
透過命令列快速安裝 video-generate AI 技能到你的開發環境
來源:bytedance/agentkit-samples。
Before using this skill, ensure the following environment variables are set:
A list of video generation requests. Each item is a dict with the following fields:
Based on the script return info, the final response returned to the user consists of a description of the video generation task and the video URL(s). You may download the video from the URL, but the video URL should still be provided to the user for viewing and downloading.
使用 Seedance 模型產生影片。當用戶想要根據文字提示、圖像或參考材料建立影片時調用。 來源:bytedance/agentkit-samples。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/bytedance/agentkit-samples --skill video-generate使用 Seedance 模型產生影片。當用戶想要根據文字提示、圖像或參考材料建立影片時調用。 來源:bytedance/agentkit-samples。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/bytedance/agentkit-samples --skill video-generate 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/bytedance/agentkit-samples