llm-streaming
✓Modèles de réponse en streaming LLM. À utiliser lors de la mise en œuvre du streaming de jetons en temps réel, des événements envoyés par le serveur pour les réponses de l'IA ou du streaming avec des appels d'outils.
Installation
SKILL.md
| Protocol | SSE for web, WebSocket for bidirectional | | Buffer size | 50-200 tokens | | Timeout | 30-60s for long responses | | Retry | Reconnect on disconnect |
token-streaming Keywords: streaming, token, stream response, real-time, incremental Solves:
sse-responses Keywords: SSE, Server-Sent Events, event stream, text/event-stream Solves:
Modèles de réponse en streaming LLM. À utiliser lors de la mise en œuvre du streaming de jetons en temps réel, des événements envoyés par le serveur pour les réponses de l'IA ou du streaming avec des appels d'outils. Source : yonatangross/orchestkit.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming- Source
- yonatangross/orchestkit
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que llm-streaming ?
Modèles de réponse en streaming LLM. À utiliser lors de la mise en œuvre du streaming de jetons en temps réel, des événements envoyés par le serveur pour les réponses de l'IA ou du streaming avec des appels d'outils. Source : yonatangross/orchestkit.
Comment installer llm-streaming ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/yonatangross/orchestkit --skill llm-streaming Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/yonatangross/orchestkit
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01