Was ist llm-streaming-response-handler?
Erstellen Sie Produktions-LLM-Streaming-Benutzeroberflächen mit vom Server gesendeten Ereignissen, Echtzeit-Token-Anzeige, Abbruch und Fehlerbehebung. Verarbeitet OpenAI/Anthropic/Claude-Streaming-APIs. Verwendung für Chatbots, KI-Assistenten, Textgenerierung in Echtzeit. Aktivieren Sie „LLM-Streaming“, „SSE“, „Token-Stream“, „Chat-UI“, „Echtzeit-KI“. NICHT für Stapelverarbeitung, Nicht-Streaming-APIs oder bidirektionalen WebSocket-Chat. Quelle: curiositech/some_claude_skills.