·llm-streaming
</>

llm-streaming

yonatangross/orchestkit

Patrones de respuesta de transmisión de LLM. Úselo al implementar transmisión de tokens en tiempo real, eventos enviados por el servidor para respuestas de IA o transmisión con llamadas a herramientas.

13Instalaciones·0Tendencia·@yonatangross

Instalación

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming

SKILL.md

| Protocol | SSE for web, WebSocket for bidirectional | | Buffer size | 50-200 tokens | | Timeout | 30-60s for long responses | | Retry | Reconnect on disconnect |

token-streaming Keywords: streaming, token, stream response, real-time, incremental Solves:

sse-responses Keywords: SSE, Server-Sent Events, event stream, text/event-stream Solves:

Patrones de respuesta de transmisión de LLM. Úselo al implementar transmisión de tokens en tiempo real, eventos enviados por el servidor para respuestas de IA o transmisión con llamadas a herramientas. Fuente: yonatangross/orchestkit.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es llm-streaming?

Patrones de respuesta de transmisión de LLM. Úselo al implementar transmisión de tokens en tiempo real, eventos enviados por el servidor para respuestas de IA o transmisión con llamadas a herramientas. Fuente: yonatangross/orchestkit.

¿Cómo instalo llm-streaming?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/yonatangross/orchestkit