·llm-integration
</>

llm-integration

yonatangross/orchestkit

Modèles d'intégration LLM pour l'appel de fonctions, les réponses en streaming, l'inférence locale avec Ollama et la personnalisation fine. À utiliser lors de la mise en œuvre de l'utilisation d'outils, du streaming SSE, du déploiement de modèles locaux, du réglage fin LoRA/QLoRA ou des API LLM multi-fournisseurs.

9Installations·2Tendance·@yonatangross

Installation

$npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration

SKILL.md

Patterns for integrating LLMs into production applications: tool use, streaming, local inference, and fine-tuning. Each category has individual rule files in rules/ loaded on-demand.

| Category | Rules | Impact | When to Use |

| Function Calling | 3 | CRITICAL | Tool definitions, parallel execution, input validation | | Streaming | 3 | HIGH | SSE endpoints, structured streaming, backpressure handling | | Local Inference | 3 | HIGH | Ollama setup, model selection, GPU optimization | | Fine-Tuning | 3 | HIGH | LoRA/QLoRA training, dataset preparation, evaluation |

Modèles d'intégration LLM pour l'appel de fonctions, les réponses en streaming, l'inférence locale avec Ollama et la personnalisation fine. À utiliser lors de la mise en œuvre de l'utilisation d'outils, du streaming SSE, du déploiement de modèles locaux, du réglage fin LoRA/QLoRA ou des API LLM multi-fournisseurs. Source : yonatangross/orchestkit.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-17
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-integration ?

Modèles d'intégration LLM pour l'appel de fonctions, les réponses en streaming, l'inférence locale avec Ollama et la personnalisation fine. À utiliser lors de la mise en œuvre de l'utilisation d'outils, du streaming SSE, du déploiement de modèles locaux, du réglage fin LoRA/QLoRA ou des API LLM multi-fournisseurs. Source : yonatangross/orchestkit.

Comment installer llm-integration ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/yonatangross/orchestkit --skill llm-integration Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/yonatangross/orchestkit