local-llm-router
✓Acheminez les requêtes de codage de l'IA vers des LLM locaux dans des réseaux isolés. Intègre Serena MCP pour la compréhension du code sémantique. À utiliser lorsque vous travaillez hors ligne, avec des modèles locaux (Ollama, LM Studio, Jan, OpenWebUI) ou dans des environnements sécurisés/fermés. Déclencheurs sur LLM local, Ollama, LM Studio, Jan, IA hors ligne, Serena, inférence locale, réseau fermé, routage de modèles, réseau de défense, codage sécurisé.
Installation
SKILL.md
Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.
CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.
| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |
Acheminez les requêtes de codage de l'IA vers des LLM locaux dans des réseaux isolés. Intègre Serena MCP pour la compréhension du code sémantique. À utiliser lorsque vous travaillez hors ligne, avec des modèles locaux (Ollama, LM Studio, Jan, OpenWebUI) ou dans des environnements sécurisés/fermés. Déclencheurs sur LLM local, Ollama, LM Studio, Jan, IA hors ligne, Serena, inférence locale, réseau fermé, routage de modèles, réseau de défense, codage sécurisé. Source : hoodini/ai-agents-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router- Source
- hoodini/ai-agents-skills
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que local-llm-router ?
Acheminez les requêtes de codage de l'IA vers des LLM locaux dans des réseaux isolés. Intègre Serena MCP pour la compréhension du code sémantique. À utiliser lorsque vous travaillez hors ligne, avec des modèles locaux (Ollama, LM Studio, Jan, OpenWebUI) ou dans des environnements sécurisés/fermés. Déclencheurs sur LLM local, Ollama, LM Studio, Jan, IA hors ligne, Serena, inférence locale, réseau fermé, routage de modèles, réseau de défense, codage sécurisé. Source : hoodini/ai-agents-skills.
Comment installer local-llm-router ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/hoodini/ai-agents-skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01