·llm-integration
</>

llm-integration

Modelli di integrazione LLM per chiamate di funzioni, risposte in streaming, inferenza locale con Ollama e personalizzazione della messa a punto. Da utilizzare durante l'implementazione dell'uso degli strumenti, dello streaming SSE, della distribuzione del modello locale, della messa a punto di LoRA/QLoRA o delle API LLM multi-provider.

54Installazioni·1Tendenza·@yonatangross

Installazione

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration

Come installare llm-integration

Installa rapidamente la skill AI llm-integration nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: yonatangross/orchestkit.

Patterns for integrating LLMs into production applications: tool use, streaming, local inference, and fine-tuning. Each category has individual rule files in rules/ loaded on-demand.

| Category | Rules | Impact | When to Use |

| Function Calling | 3 | CRITICAL | Tool definitions, parallel execution, input validation | | Streaming | 3 | HIGH | SSE endpoints, structured streaming, backpressure handling | | Local Inference | 3 | HIGH | Ollama setup, model selection, GPU optimization | | Fine-Tuning | 3 | HIGH | LoRA/QLoRA training, dataset preparation, evaluation |

Modelli di integrazione LLM per chiamate di funzioni, risposte in streaming, inferenza locale con Ollama e personalizzazione della messa a punto. Da utilizzare durante l'implementazione dell'uso degli strumenti, dello streaming SSE, della distribuzione del modello locale, della messa a punto di LoRA/QLoRA o delle API LLM multi-provider. Fonte: yonatangross/orchestkit.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-17
Aggiornato
2026-03-10

Browse more skills from yonatangross/orchestkit

Risposte rapide

Che cos'è llm-integration?

Modelli di integrazione LLM per chiamate di funzioni, risposte in streaming, inferenza locale con Ollama e personalizzazione della messa a punto. Da utilizzare durante l'implementazione dell'uso degli strumenti, dello streaming SSE, della distribuzione del modello locale, della messa a punto di LoRA/QLoRA o delle API LLM multi-provider. Fonte: yonatangross/orchestkit.

Come installo llm-integration?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/yonatangross/orchestkit