·llm-streaming-response-handler
!

llm-streaming-response-handler

erichowens/some_claude_skills

Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket.

16Installations·1Tendance·@erichowens

Installation

$npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler

SKILL.md

Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.

| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |

Problem: Stream fails mid-response, user sees partial text with no indication of failure.

Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : erichowens/some_claude_skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler
Catégorie
!Sécurité
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-streaming-response-handler ?

Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : erichowens/some_claude_skills.

Comment installer llm-streaming-response-handler ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/erichowens/some_claude_skills