eachlabs-video-generation
✓使用 EachLabs AI 模型根據文字提示、圖像或參考輸入產生新影片。支援文字轉影片、影像轉影片、轉場、動作控制、頭部說話和頭像生成。當用戶想要創建新的影片內容時使用。要編輯現有視頻,請參閱eachlabs-video-edit。
SKILL.md
Generate new videos from text prompts, images, or reference inputs using 165+ AI models via the EachLabs Predictions API. For editing existing videos (upscaling, lip sync, extension, subtitles), see the eachlabs-video-edit skill.
Set the EACHLABSAPIKEY environment variable or pass it directly. Get your key at eachlabs.ai.
Poll until status is "success" or "failed". The output video URL is in the response.
使用 EachLabs AI 模型根據文字提示、圖像或參考輸入產生新影片。支援文字轉影片、影像轉影片、轉場、動作控制、頭部說話和頭像生成。當用戶想要創建新的影片內容時使用。要編輯現有視頻,請參閱eachlabs-video-edit。 來源:eachlabs/skills。
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/eachlabs/skills --skill eachlabs-video-generation- 分類
- *創意媒體
- 認證
- ✓
- 收錄時間
- 2026-02-11
- 更新時間
- 2026-02-18
快速解答
什麼是 eachlabs-video-generation?
使用 EachLabs AI 模型根據文字提示、圖像或參考輸入產生新影片。支援文字轉影片、影像轉影片、轉場、動作控制、頭部說話和頭像生成。當用戶想要創建新的影片內容時使用。要編輯現有視頻,請參閱eachlabs-video-edit。 來源:eachlabs/skills。
如何安裝 eachlabs-video-generation?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/eachlabs/skills --skill eachlabs-video-generation 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/eachlabs/skills
詳情
- 分類
- *創意媒體
- 來源
- skills.sh
- 收錄時間
- 2026-02-11