Qu'est-ce que llm-streaming-response-handler ?
Créez des interfaces utilisateur de streaming LLM de production avec des événements envoyés par le serveur, l'affichage des jetons en temps réel, l'annulation et la récupération d'erreurs. Gère les API de streaming OpenAI/Anthropic/Claude. Utilisation pour les chatbots, les assistants IA, la génération de texte en temps réel. Activez sur "LLM streaming", "SSE", "token stream", "chat UI", "real-time AI". PAS pour le traitement par lots, les API sans streaming ou le chat bidirectionnel WebSocket. Source : curiositech/some_claude_skills.