llm-streaming-response-handler
✓Cree interfaces de usuario de transmisión de LLM de producción con eventos enviados por el servidor, visualización de tokens en tiempo real, cancelación y recuperación de errores. Maneja las API de transmisión OpenAI/Anthropic/Claude. Úselo para chatbots, asistentes de inteligencia artificial y generación de texto en tiempo real. Activar en "LLM streaming", "SSE", "token stream", "chat UI", "AI en tiempo real". NO para procesamiento por lotes, API sin transmisión o chat bidireccional WebSocket.
Instalación
SKILL.md
Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.
| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |
Problem: Stream fails mid-response, user sees partial text with no indication of failure.
Cree interfaces de usuario de transmisión de LLM de producción con eventos enviados por el servidor, visualización de tokens en tiempo real, cancelación y recuperación de errores. Maneja las API de transmisión OpenAI/Anthropic/Claude. Úselo para chatbots, asistentes de inteligencia artificial y generación de texto en tiempo real. Activar en "LLM streaming", "SSE", "token stream", "chat UI", "AI en tiempo real". NO para procesamiento por lotes, API sin transmisión o chat bidireccional WebSocket. Fuente: erichowens/some_claude_skills.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler- Categoría
- !Seguridad
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es llm-streaming-response-handler?
Cree interfaces de usuario de transmisión de LLM de producción con eventos enviados por el servidor, visualización de tokens en tiempo real, cancelación y recuperación de errores. Maneja las API de transmisión OpenAI/Anthropic/Claude. Úselo para chatbots, asistentes de inteligencia artificial y generación de texto en tiempo real. Activar en "LLM streaming", "SSE", "token stream", "chat UI", "AI en tiempo real". NO para procesamiento por lotes, API sin transmisión o chat bidireccional WebSocket. Fuente: erichowens/some_claude_skills.
¿Cómo instalo llm-streaming-response-handler?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/erichowens/some_claude_skills
Detalles
- Categoría
- !Seguridad
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01