ai-avatar-video
✓通過 inference.sh CLI 使用 OmniHuman、Fabric、PixVerse 創建 AI 頭像和頭部說話視頻。 型號:OmniHuman 1.5、OmniHuman 1.0、Fabric 1.0、PixVerse Lipsync。 功能:音頻驅動的頭像、口型同步視頻、頭像生成、虛擬演示者。 用於:人工智能演示者、講解視頻、虛擬影響者、配音、營銷視頻。 觸發器:人工智能頭像、說話頭、口型同步、頭像視頻、虛擬演示者、 人工智能發言人、音頻驅動視頻、heygen 替代方案、synthesia 替代方案、 說話頭像、口型同步、視頻頭像、人工智能演示者、數字人
SKILL.md
Create AI avatars and talking head videos via inference.sh CLI.
| OmniHuman 1.5 | bytedance/omnihuman-1-5 | Multi-character, best quality | | OmniHuman 1.0 | bytedance/omnihuman-1-0 | Single character | | Fabric 1.0 | falai/fabric-1-0 | Image talks with lipsync | | PixVerse Lipsync | falai/pixverse-lipsync | Highly realistic |
通過 inference.sh CLI 使用 OmniHuman、Fabric、PixVerse 創建 AI 頭像和頭部說話視頻。 型號:OmniHuman 1.5、OmniHuman 1.0、Fabric 1.0、PixVerse Lipsync。 功能:音頻驅動的頭像、口型同步視頻、頭像生成、虛擬演示者。 用於:人工智能演示者、講解視頻、虛擬影響者、配音、營銷視頻。 觸發器:人工智能頭像、說話頭、口型同步、頭像視頻、虛擬演示者、 人工智能發言人、音頻驅動視頻、heygen 替代方案、synthesia 替代方案、 說話頭像、口型同步、視頻頭像、人工智能演示者、數字人 來源:1nf-sh/skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/1nf-sh/skills --skill ai-avatar-video 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/1nf-sh/skills --skill ai-avatar-video- 分類
- *創意媒體
- 認證
- ✓
- 收錄時間
- 2026-02-10
- 更新時間
- 2026-02-18
快速解答
什麼是 ai-avatar-video?
通過 inference.sh CLI 使用 OmniHuman、Fabric、PixVerse 創建 AI 頭像和頭部說話視頻。 型號:OmniHuman 1.5、OmniHuman 1.0、Fabric 1.0、PixVerse Lipsync。 功能:音頻驅動的頭像、口型同步視頻、頭像生成、虛擬演示者。 用於:人工智能演示者、講解視頻、虛擬影響者、配音、營銷視頻。 觸發器:人工智能頭像、說話頭、口型同步、頭像視頻、虛擬演示者、 人工智能發言人、音頻驅動視頻、heygen 替代方案、synthesia 替代方案、 說話頭像、口型同步、視頻頭像、人工智能演示者、數字人 來源:1nf-sh/skills。
如何安裝 ai-avatar-video?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/1nf-sh/skills --skill ai-avatar-video 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/1nf-sh/skills
詳情
- 分類
- *創意媒體
- 來源
- skills.sh
- 收錄時間
- 2026-02-10