·llm-streaming
</>

llm-streaming

Modelli di risposta allo streaming LLM. Da utilizzare durante l'implementazione dello streaming di token in tempo reale, degli eventi inviati dal server per le risposte AI o dello streaming con chiamate agli strumenti.

12Installazioni·0Tendenza·@yonatangross

Installazione

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming

Come installare llm-streaming

Installa rapidamente la skill AI llm-streaming nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: yonatangross/orchestkit.

| Protocol | SSE for web, WebSocket for bidirectional | | Buffer size | 50-200 tokens | | Timeout | 30-60s for long responses | | Retry | Reconnect on disconnect |

token-streaming Keywords: streaming, token, stream response, real-time, incremental Solves:

sse-responses Keywords: SSE, Server-Sent Events, event stream, text/event-stream Solves:

Modelli di risposta allo streaming LLM. Da utilizzare durante l'implementazione dello streaming di token in tempo reale, degli eventi inviati dal server per le risposte AI o dello streaming con chiamate agli strumenti. Fonte: yonatangross/orchestkit.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-11

Browse more skills from yonatangross/orchestkit

Risposte rapide

Che cos'è llm-streaming?

Modelli di risposta allo streaming LLM. Da utilizzare durante l'implementazione dello streaming di token in tempo reale, degli eventi inviati dal server per le risposte AI o dello streaming con chiamate agli strumenti. Fonte: yonatangross/orchestkit.

Come installo llm-streaming?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/yonatangross/orchestkit