llm-streaming-response-handler
✓Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket.
Installation
SKILL.md
Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.
| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |
Problem: Stream fails mid-response, user sees partial text with no indication of failure.
Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : erichowens/some_claude_skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler- Catégorie
- !Sécurité
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que llm-streaming-response-handler ?
Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : erichowens/some_claude_skills.
Comment installer llm-streaming-response-handler ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/erichowens/some_claude_skills
Détails
- Catégorie
- !Sécurité
- Source
- skills.sh
- Première apparition
- 2026-02-01