·ai-avatar-video
*

ai-avatar-video

Crea avatar AI e video di teste parlanti con OmniHuman, Fabric, PixVerse tramite la CLI di inference.sh. Modelli: OmniHuman 1.5, OmniHuman 1.0, Fabric 1.0, PixVerse Lipsync. Funzionalità: avatar con audio, video con sincronizzazione labiale, generazione di teste parlanti, presentatori virtuali. Utilizzare per: presentatori AI, video esplicativi, influencer virtuali, doppiaggio, video di marketing. Trigger: avatar ai, testa parlante, sincronizzazione labiale, video avatar, presentatore virtuale, portavoce ai, video con audio, alternativa heygen, alternativa alla sintesi, avatar parlante, sincronizzazione labiale, avatar video, presentatore ai, essere umano digitale

0Installazioni·0Tendenza·@skill-zero

Installazione

$npx skills add https://github.com/skill-zero/s --skill ai-avatar-video

Come installare ai-avatar-video

Installa rapidamente la skill AI ai-avatar-video nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/skill-zero/s --skill ai-avatar-video
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: skill-zero/s.

Create AI avatars and talking head videos via inference.sh CLI.

| OmniHuman 1.5 | bytedance/omnihuman-1-5 | Multi-character, best quality | | OmniHuman 1.0 | bytedance/omnihuman-1-0 | Single character | | Fabric 1.0 | falai/fabric-1-0 | Image talks with lipsync | | PixVerse Lipsync | falai/pixverse-lipsync | Highly realistic |

Crea avatar AI e video di teste parlanti con OmniHuman, Fabric, PixVerse tramite la CLI di inference.sh. Modelli: OmniHuman 1.5, OmniHuman 1.0, Fabric 1.0, PixVerse Lipsync. Funzionalità: avatar con audio, video con sincronizzazione labiale, generazione di teste parlanti, presentatori virtuali. Utilizzare per: presentatori AI, video esplicativi, influencer virtuali, doppiaggio, video di marketing. Trigger: avatar ai, testa parlante, sincronizzazione labiale, video avatar, presentatore virtuale, portavoce ai, video con audio, alternativa heygen, alternativa alla sintesi, avatar parlante, sincronizzazione labiale, avatar video, presentatore ai, essere umano digitale Fonte: skill-zero/s.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/skill-zero/s --skill ai-avatar-video
Categoria
*Creatività
Verificato
Prima apparizione
2026-02-12
Aggiornato
2026-03-10

Browse more skills from skill-zero/s

Risposte rapide

Che cos'è ai-avatar-video?

Crea avatar AI e video di teste parlanti con OmniHuman, Fabric, PixVerse tramite la CLI di inference.sh. Modelli: OmniHuman 1.5, OmniHuman 1.0, Fabric 1.0, PixVerse Lipsync. Funzionalità: avatar con audio, video con sincronizzazione labiale, generazione di teste parlanti, presentatori virtuali. Utilizzare per: presentatori AI, video esplicativi, influencer virtuali, doppiaggio, video di marketing. Trigger: avatar ai, testa parlante, sincronizzazione labiale, video avatar, presentatore virtuale, portavoce ai, video con audio, alternativa heygen, alternativa alla sintesi, avatar parlante, sincronizzazione labiale, avatar video, presentatore ai, essere umano digitale Fonte: skill-zero/s.

Come installo ai-avatar-video?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/skill-zero/s --skill ai-avatar-video Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/skill-zero/s