·multimodal-models
</>

multimodal-models

Utilizzare quando "CLIP", "Whisper", "Diffusione stabile", "SDXL", "discorso in testo", "testo in immagine", "generazione di immagini", "trascrizione", "classificazione zero-shot", "somiglianza immagine-testo", "inpainting", "ControlNet"

31Installazioni·3Tendenza·@eyadsibai

Installazione

$npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models

Come installare multimodal-models

Installa rapidamente la skill AI multimodal-models nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: eyadsibai/ltk.

| CLIP | Image + Text | Zero-shot classification, similarity | | Whisper | Audio → Text | Transcription, translation | | Stable Diffusion | Text → Image | Image generation, editing |

| Zero-shot classification | Compare image to text label embeddings | | Image search | Find images matching text query | | Content moderation | Classify against safety categories | | Image similarity | Compare image embeddings |

| ViT-B/32 | 151M | Recommended balance | | ViT-L/14 | 428M | Best quality, slower | | RN50 | 102M | Fastest, lower quality |

Utilizzare quando "CLIP", "Whisper", "Diffusione stabile", "SDXL", "discorso in testo", "testo in immagine", "generazione di immagini", "trascrizione", "classificazione zero-shot", "somiglianza immagine-testo", "inpainting", "ControlNet" Fonte: eyadsibai/ltk.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-17
Aggiornato
2026-03-10

Browse more skills from eyadsibai/ltk

Risposte rapide

Che cos'è multimodal-models?

Utilizzare quando "CLIP", "Whisper", "Diffusione stabile", "SDXL", "discorso in testo", "testo in immagine", "generazione di immagini", "trascrizione", "classificazione zero-shot", "somiglianza immagine-testo", "inpainting", "ControlNet" Fonte: eyadsibai/ltk.

Come installo multimodal-models?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/eyadsibai/ltk