·llm-streaming-response-handler
!

llm-streaming-response-handler

Server-Sent Events、リアルタイムのトークン表示、キャンセル、エラー回復を備えた本番環境の LLM ストリーミング UI を構築します。 OpenAI/Anthropic/Claude ストリーミング API を処理します。チャットボット、AI アシスタント、リアルタイムのテキスト生成に使用します。 「LLMストリーミング」、「SSE」、「トークンストリーム」、「チャットUI」、「リアルタイムAI」で有効化します。バッチ処理、非ストリーミング API、または WebSocket 双方向チャットには使用できません。

12インストール·0トレンド·@curiositech

インストール

$npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler

llm-streaming-response-handler のインストール方法

コマンドラインで llm-streaming-response-handler AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: curiositech/some_claude_skills。

Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.

| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |

Problem: Stream fails mid-response, user sees partial text with no indication of failure.

Server-Sent Events、リアルタイムのトークン表示、キャンセル、エラー回復を備えた本番環境の LLM ストリーミング UI を構築します。 OpenAI/Anthropic/Claude ストリーミング API を処理します。チャットボット、AI アシスタント、リアルタイムのテキスト生成に使用します。 「LLMストリーミング」、「SSE」、「トークンストリーム」、「チャットUI」、「リアルタイムAI」で有効化します。バッチ処理、非ストリーミング API、または WebSocket 双方向チャットには使用できません。 ソース: curiositech/some_claude_skills。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler
カテゴリ
!セキュリティ
認証済み
初回登録
2026-03-09
更新日
2026-03-11

Browse more skills from curiositech/some_claude_skills

クイックアンサー

llm-streaming-response-handler とは?

Server-Sent Events、リアルタイムのトークン表示、キャンセル、エラー回復を備えた本番環境の LLM ストリーミング UI を構築します。 OpenAI/Anthropic/Claude ストリーミング API を処理します。チャットボット、AI アシスタント、リアルタイムのテキスト生成に使用します。 「LLMストリーミング」、「SSE」、「トークンストリーム」、「チャットUI」、「リアルタイムAI」で有効化します。バッチ処理、非ストリーミング API、または WebSocket 双方向チャットには使用できません。 ソース: curiositech/some_claude_skills。

llm-streaming-response-handler のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/curiositech/some_claude_skills --skill llm-streaming-response-handler インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/curiositech/some_claude_skills