Что такое llm-streaming-response-handler?
Создавайте рабочие пользовательские интерфейсы потоковой передачи LLM с помощью событий, отправленных сервером, отображения токенов в реальном времени, отмены и восстановления ошибок. Обрабатывает API потоковой передачи OpenAI/Anthropic/Claude. Используйте для чат-ботов, помощников искусственного интеллекта, генерации текста в реальном времени. Активируйте «Потоковую передачу LLM», «SSE», «поток токенов», «пользовательский интерфейс чата», «ИИ в реальном времени». НЕ для пакетной обработки, непотоковых API или двунаправленного чата WebSocket. Источник: curiositech/some_claude_skills.