什麼是 talking-head-production?
使用人工智慧頭像、口型同步和畫外音製作頭部影片。涵蓋肖像要求、音訊品質、OmniHuman、PixVerse lipsync、Dia TTS。用於:發言人影片、課程內容、社群媒體、演示、演示。触发器:会说话的头、头像视频、口型同步、口型同步、人工智能发言人、虚拟演示者、人工智能演示者、全人类、说话头像、视频演示者、人工智能说话头、演示者视频、人工智能面部视频 來源:inference-sh/agent-skills。
使用人工智慧頭像、口型同步和畫外音製作頭部影片。涵蓋肖像要求、音訊品質、OmniHuman、PixVerse lipsync、Dia TTS。用於:發言人影片、課程內容、社群媒體、演示、演示。触发器:会说话的头、头像视频、口型同步、口型同步、人工智能发言人、虚拟演示者、人工智能演示者、全人类、说话头像、视频演示者、人工智能说话头、演示者视频、人工智能面部视频
透過命令列快速安裝 talking-head-production AI 技能到你的開發環境
來源:inference-sh/agent-skills。
Create talking head videos with AI avatars and lipsync via inference.sh CLI.
Install note: The install script only detects your OS/architecture, downloads the matching binary from dist.inference.sh, and verifies its SHA-256 checksum. No elevated permissions or background processes. Manual install & verification available.
The source portrait image is critical. Poor portraits = poor video output.
使用人工智慧頭像、口型同步和畫外音製作頭部影片。涵蓋肖像要求、音訊品質、OmniHuman、PixVerse lipsync、Dia TTS。用於:發言人影片、課程內容、社群媒體、演示、演示。触发器:会说话的头、头像视频、口型同步、口型同步、人工智能发言人、虚拟演示者、人工智能演示者、全人类、说话头像、视频演示者、人工智能说话头、演示者视频、人工智能面部视频 來源:inference-sh/agent-skills。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/inference-sh/agent-skills --skill talking-head-production使用人工智慧頭像、口型同步和畫外音製作頭部影片。涵蓋肖像要求、音訊品質、OmniHuman、PixVerse lipsync、Dia TTS。用於:發言人影片、課程內容、社群媒體、演示、演示。触发器:会说话的头、头像视频、口型同步、口型同步、人工智能发言人、虚拟演示者、人工智能演示者、全人类、说话头像、视频演示者、人工智能说话头、演示者视频、人工智能面部视频 來源:inference-sh/agent-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/inference-sh/agent-skills --skill talking-head-production 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/inference-sh/agent-skills