·llm-streaming
</>

llm-streaming

yonatangross/orchestkit

LLM-Streaming-Antwortmuster. Verwenden Sie diese Option, wenn Sie Echtzeit-Token-Streaming, vom Server gesendete Ereignisse für KI-Antworten oder Streaming mit Tool-Aufrufen implementieren.

13Installationen·0Trend·@yonatangross

Installation

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming

SKILL.md

| Protocol | SSE for web, WebSocket for bidirectional | | Buffer size | 50-200 tokens | | Timeout | 30-60s for long responses | | Retry | Reconnect on disconnect |

token-streaming Keywords: streaming, token, stream response, real-time, incremental Solves:

sse-responses Keywords: SSE, Server-Sent Events, event stream, text/event-stream Solves:

LLM-Streaming-Antwortmuster. Verwenden Sie diese Option, wenn Sie Echtzeit-Token-Streaming, vom Server gesendete Ereignisse für KI-Antworten oder Streaming mit Tool-Aufrufen implementieren. Quelle: yonatangross/orchestkit.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist llm-streaming?

LLM-Streaming-Antwortmuster. Verwenden Sie diese Option, wenn Sie Echtzeit-Token-Streaming, vom Server gesendete Ereignisse für KI-Antworten oder Streaming mit Tool-Aufrufen implementieren. Quelle: yonatangross/orchestkit.

Wie installiere ich llm-streaming?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/yonatangross/orchestkit