video-generate とは?
Seedance モデルを使用してビデオを生成します。ユーザーがテキスト プロンプト、画像、または参考資料からビデオを作成したいときに呼び出します。 ソース: bytedance/agentkit-samples。
Seedance モデルを使用してビデオを生成します。ユーザーがテキスト プロンプト、画像、または参考資料からビデオを作成したいときに呼び出します。
コマンドラインで video-generate AI スキルを開発環境にすばやくインストール
ソース: bytedance/agentkit-samples。
Before using this skill, ensure the following environment variables are set:
A list of video generation requests. Each item is a dict with the following fields:
Based on the script return info, the final response returned to the user consists of a description of the video generation task and the video URL(s). You may download the video from the URL, but the video URL should still be provided to the user for viewing and downloading.
Seedance モデルを使用してビデオを生成します。ユーザーがテキスト プロンプト、画像、または参考資料からビデオを作成したいときに呼び出します。 ソース: bytedance/agentkit-samples。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/bytedance/agentkit-samples --skill video-generateSeedance モデルを使用してビデオを生成します。ユーザーがテキスト プロンプト、画像、または参考資料からビデオを作成したいときに呼び出します。 ソース: bytedance/agentkit-samples。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/bytedance/agentkit-samples --skill video-generate インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/bytedance/agentkit-samples