·llm-streaming-response-handler
!

llm-streaming-response-handler

قم ببناء واجهات مستخدم تدفق LLM للإنتاج باستخدام الأحداث المرسلة من الخادم وعرض الرمز المميز في الوقت الفعلي والإلغاء واسترداد الأخطاء. يتعامل مع واجهات برمجة التطبيقات المتدفقة OpenAI/Anthropic/Claude. يُستخدم لروبوتات الدردشة ومساعدي الذكاء الاصطناعي وإنشاء النصوص في الوقت الفعلي. قم بالتنشيط على "تدفق LLM"، و"SSE"، و"تدفق الرمز المميز"، و"واجهة مستخدم الدردشة"، و"الذكاء الاصطناعي في الوقت الفعلي". ليس للمعالجة المجمعة، أو واجهات برمجة التطبيقات غير المتدفقة، أو الدردشة ثنائية الاتجاه عبر WebSocket.

34التثبيتات·5الرائج·@erichowens

التثبيت

$npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler

كيفية تثبيت llm-streaming-response-handler

ثبّت مهارة الذكاء الاصطناعي llm-streaming-response-handler بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: erichowens/some_claude_skills.

Expert in building production-grade streaming interfaces for LLM responses that feel instant and responsive.

| OpenAI | SSE | data: {"choices":[{"delta":{"content":"token"}}]} | | Anthropic | SSE | data: {"type":"contentblockdelta","delta":{"text":"token"}} | | Claude (API) | SSE | data: {"delta":{"text":"token"}} | | Vercel AI SDK | SSE | Normalized across providers |

Problem: Stream fails mid-response, user sees partial text with no indication of failure.

قم ببناء واجهات مستخدم تدفق LLM للإنتاج باستخدام الأحداث المرسلة من الخادم وعرض الرمز المميز في الوقت الفعلي والإلغاء واسترداد الأخطاء. يتعامل مع واجهات برمجة التطبيقات المتدفقة OpenAI/Anthropic/Claude. يُستخدم لروبوتات الدردشة ومساعدي الذكاء الاصطناعي وإنشاء النصوص في الوقت الفعلي. قم بالتنشيط على "تدفق LLM"، و"SSE"، و"تدفق الرمز المميز"، و"واجهة مستخدم الدردشة"، و"الذكاء الاصطناعي في الوقت الفعلي". ليس للمعالجة المجمعة، أو واجهات برمجة التطبيقات غير المتدفقة، أو الدردشة ثنائية الاتجاه عبر WebSocket. المصدر: erichowens/some_claude_skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler
الفئة
!الأمن
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from erichowens/some_claude_skills

إجابات سريعة

ما هي llm-streaming-response-handler؟

قم ببناء واجهات مستخدم تدفق LLM للإنتاج باستخدام الأحداث المرسلة من الخادم وعرض الرمز المميز في الوقت الفعلي والإلغاء واسترداد الأخطاء. يتعامل مع واجهات برمجة التطبيقات المتدفقة OpenAI/Anthropic/Claude. يُستخدم لروبوتات الدردشة ومساعدي الذكاء الاصطناعي وإنشاء النصوص في الوقت الفعلي. قم بالتنشيط على "تدفق LLM"، و"SSE"، و"تدفق الرمز المميز"، و"واجهة مستخدم الدردشة"، و"الذكاء الاصطناعي في الوقت الفعلي". ليس للمعالجة المجمعة، أو واجهات برمجة التطبيقات غير المتدفقة، أو الدردشة ثنائية الاتجاه عبر WebSocket. المصدر: erichowens/some_claude_skills.

كيف أثبّت llm-streaming-response-handler؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/erichowens/some_claude_skills --skill llm-streaming-response-handler بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/erichowens/some_claude_skills