llm-streaming
✓Patrones de respuesta de transmisión de LLM. Úselo al implementar transmisión de tokens en tiempo real, eventos enviados por el servidor para respuestas de IA o transmisión con llamadas a herramientas.
Instalación
SKILL.md
| Protocol | SSE for web, WebSocket for bidirectional | | Buffer size | 50-200 tokens | | Timeout | 30-60s for long responses | | Retry | Reconnect on disconnect |
token-streaming Keywords: streaming, token, stream response, real-time, incremental Solves:
sse-responses Keywords: SSE, Server-Sent Events, event stream, text/event-stream Solves:
Patrones de respuesta de transmisión de LLM. Úselo al implementar transmisión de tokens en tiempo real, eventos enviados por el servidor para respuestas de IA o transmisión con llamadas a herramientas. Fuente: yonatangross/orchestkit.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming- Fuente
- yonatangross/orchestkit
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es llm-streaming?
Patrones de respuesta de transmisión de LLM. Úselo al implementar transmisión de tokens en tiempo real, eventos enviados por el servidor para respuestas de IA o transmisión con llamadas a herramientas. Fuente: yonatangross/orchestkit.
¿Cómo instalo llm-streaming?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/yonatangross/orchestkit
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01