·llm-streaming-response-handler
!

llm-streaming-response-handler

Создавайте рабочие пользовательские интерфейсы потоковой передачи LLM с помощью событий, отправленных сервером, отображения токенов в реальном времени, отмены и восстановления ошибок. Обрабатывает API потоковой передачи OpenAI/Anthropic/Claude. Используйте для чат-ботов, помощников искусственного интеллекта, генерации текста в реальном времени. Активируйте «Потоковую передачу LLM», «SSE», «поток токенов», «пользовательский интерфейс чата», «ИИ в реальном времени». НЕ для пакетной обработки, непотоковых API или двунаправленного чата WebSocket.

12Установки·0Тренд·@curiositech

Установка

$npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler

Как установить llm-streaming-response-handler

Быстро установите AI-навык llm-streaming-response-handler в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: curiositech/some_claude_skills.

Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.

| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |

Problem: Stream fails mid-response, user sees partial text with no indication of failure.

Создавайте рабочие пользовательские интерфейсы потоковой передачи LLM с помощью событий, отправленных сервером, отображения токенов в реальном времени, отмены и восстановления ошибок. Обрабатывает API потоковой передачи OpenAI/Anthropic/Claude. Используйте для чат-ботов, помощников искусственного интеллекта, генерации текста в реальном времени. Активируйте «Потоковую передачу LLM», «SSE», «поток токенов», «пользовательский интерфейс чата», «ИИ в реальном времени». НЕ для пакетной обработки, непотоковых API или двунаправленного чата WebSocket. Источник: curiositech/some_claude_skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler
Категория
!Безопасность
Проверено
Впервые замечено
2026-03-09
Обновлено
2026-03-10

Browse more skills from curiositech/some_claude_skills

Короткие ответы

Что такое llm-streaming-response-handler?

Создавайте рабочие пользовательские интерфейсы потоковой передачи LLM с помощью событий, отправленных сервером, отображения токенов в реальном времени, отмены и восстановления ошибок. Обрабатывает API потоковой передачи OpenAI/Anthropic/Claude. Используйте для чат-ботов, помощников искусственного интеллекта, генерации текста в реальном времени. Активируйте «Потоковую передачу LLM», «SSE», «поток токенов», «пользовательский интерфейс чата», «ИИ в реальном времени». НЕ для пакетной обработки, непотоковых API или двунаправленного чата WebSocket. Источник: curiositech/some_claude_skills.

Как установить llm-streaming-response-handler?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/curiositech/some_claude_skills