·ai-avatar-video
*

ai-avatar-video

Erstellen Sie KI-Avatar- und Talking-Head-Videos mit OmniHuman, Fabric, PixVerse über die inference.sh CLI. Modelle: OmniHuman 1.5, OmniHuman 1.0, Fabric 1.0, PixVerse Lipsync. Funktionen: audiogesteuerte Avatare, lippensynchrone Videos, Talking-Head-Generierung, virtuelle Moderatoren. Verwendung für: KI-Moderatoren, Erklärvideos, virtuelle Influencer, Synchronisation, Marketingvideos. Auslöser: KI-Avatar, sprechender Kopf, Lippensynchronisation, Avatar-Video, virtueller Moderator, KI-Sprecher, audiogesteuertes Video, Heygen-Alternative, Synthesia-Alternative, sprechender Avatar, Lippensynchronisation, Video-Avatar, KI-Moderator, digitaler Mensch

3.0KInstallationen·831Trend·@toolshell

Installation

$npx skills add https://github.com/toolshell/skills --skill ai-avatar-video

So installieren Sie ai-avatar-video

Installieren Sie den KI-Skill ai-avatar-video schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/toolshell/skills --skill ai-avatar-video
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: toolshell/skills.

Create AI avatars and talking head videos via inference.sh CLI.

Requires inference.sh CLI (infsh). Get installation instructions: npx skills add inference-sh/skills@agent-tools

| OmniHuman 1.5 | bytedance/omnihuman-1-5 | Multi-character, best quality | | OmniHuman 1.0 | bytedance/omnihuman-1-0 | Single character | | Fabric 1.0 | falai/fabric-1-0 | Image talks with lipsync | | PixVerse Lipsync | falai/pixverse-lipsync | Highly realistic |

Erstellen Sie KI-Avatar- und Talking-Head-Videos mit OmniHuman, Fabric, PixVerse über die inference.sh CLI. Modelle: OmniHuman 1.5, OmniHuman 1.0, Fabric 1.0, PixVerse Lipsync. Funktionen: audiogesteuerte Avatare, lippensynchrone Videos, Talking-Head-Generierung, virtuelle Moderatoren. Verwendung für: KI-Moderatoren, Erklärvideos, virtuelle Influencer, Synchronisation, Marketingvideos. Auslöser: KI-Avatar, sprechender Kopf, Lippensynchronisation, Avatar-Video, virtueller Moderator, KI-Sprecher, audiogesteuertes Video, Heygen-Alternative, Synthesia-Alternative, sprechender Avatar, Lippensynchronisation, Video-Avatar, KI-Moderator, digitaler Mensch Quelle: toolshell/skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/toolshell/skills --skill ai-avatar-video
Kategorie
*Kreativität
Verifiziert
Erstes Auftreten
2026-03-08
Aktualisiert
2026-03-10

Browse more skills from toolshell/skills

Schnelle Antworten

Was ist ai-avatar-video?

Erstellen Sie KI-Avatar- und Talking-Head-Videos mit OmniHuman, Fabric, PixVerse über die inference.sh CLI. Modelle: OmniHuman 1.5, OmniHuman 1.0, Fabric 1.0, PixVerse Lipsync. Funktionen: audiogesteuerte Avatare, lippensynchrone Videos, Talking-Head-Generierung, virtuelle Moderatoren. Verwendung für: KI-Moderatoren, Erklärvideos, virtuelle Influencer, Synchronisation, Marketingvideos. Auslöser: KI-Avatar, sprechender Kopf, Lippensynchronisation, Avatar-Video, virtueller Moderator, KI-Sprecher, audiogesteuertes Video, Heygen-Alternative, Synthesia-Alternative, sprechender Avatar, Lippensynchronisation, Video-Avatar, KI-Moderator, digitaler Mensch Quelle: toolshell/skills.

Wie installiere ich ai-avatar-video?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/toolshell/skills --skill ai-avatar-video Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/toolshell/skills