·llm-streaming-response-handler
!

llm-streaming-response-handler

Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket.

12Installations·0Tendance·@curiositech

Installation

$npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler

Comment installer llm-streaming-response-handler

Installez rapidement le skill IA llm-streaming-response-handler dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : curiositech/some_claude_skills.

Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.

| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |

Problem: Stream fails mid-response, user sees partial text with no indication of failure.

Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : curiositech/some_claude_skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler
Catégorie
!Sécurité
Vérifié
Première apparition
2026-03-09
Mis à jour
2026-03-10

Browse more skills from curiositech/some_claude_skills

Réponses rapides

Qu'est-ce que llm-streaming-response-handler ?

Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : curiositech/some_claude_skills.

Comment installer llm-streaming-response-handler ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/curiositech/some_claude_skills