·multimodal-llm
</>

multimodal-llm

Modelli di integrazione LLM di visione, audio e multimodale. Da utilizzare durante l'elaborazione di immagini, la trascrizione di audio, la generazione di parlato o la creazione di pipeline AI multimodali.

60Installazioni·3Tendenza·@yonatangross

Installazione

$npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm

Come installare multimodal-llm

Installa rapidamente la skill AI multimodal-llm nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: yonatangross/orchestkit.

Integrate vision and audio capabilities from leading multimodal models. Covers image analysis, document understanding, real-time voice agents, speech-to-text, and text-to-speech.

| Category | Rules | Impact | When to Use |

| Vision: Image Analysis | 1 | HIGH | Image captioning, VQA, multi-image comparison, object detection | | Vision: Document Understanding | 1 | HIGH | OCR, chart/diagram analysis, PDF processing, table extraction | | Vision: Model Selection | 1 | MEDIUM | Choosing provider, cost optimization, image size limits |

Modelli di integrazione LLM di visione, audio e multimodale. Da utilizzare durante l'elaborazione di immagini, la trascrizione di audio, la generazione di parlato o la creazione di pipeline AI multimodali. Fonte: yonatangross/orchestkit.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-17
Aggiornato
2026-03-10

Browse more skills from yonatangross/orchestkit

Risposte rapide

Che cos'è multimodal-llm?

Modelli di integrazione LLM di visione, audio e multimodale. Da utilizzare durante l'elaborazione di immagini, la trascrizione di audio, la generazione di parlato o la creazione di pipeline AI multimodali. Fonte: yonatangross/orchestkit.

Come installo multimodal-llm?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/yonatangross/orchestkit