·local-llm-router
</>

local-llm-router

hoodini/ai-agents-skills

Acheminez les requêtes de codage de l'IA vers des LLM locaux dans des réseaux isolés. Intègre Serena MCP pour la compréhension du code sémantique. À utiliser lorsque vous travaillez hors ligne, avec des modèles locaux (Ollama, LM Studio, Jan, OpenWebUI) ou dans des environnements sécurisés/fermés. Déclencheurs sur LLM local, Ollama, LM Studio, Jan, IA hors ligne, Serena, inférence locale, réseau fermé, routage de modèles, réseau de défense, codage sécurisé.

17Installations·1Tendance·@hoodini

Installation

$npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router

SKILL.md

Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.

CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.

| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |

Acheminez les requêtes de codage de l'IA vers des LLM locaux dans des réseaux isolés. Intègre Serena MCP pour la compréhension du code sémantique. À utiliser lorsque vous travaillez hors ligne, avec des modèles locaux (Ollama, LM Studio, Jan, OpenWebUI) ou dans des environnements sécurisés/fermés. Déclencheurs sur LLM local, Ollama, LM Studio, Jan, IA hors ligne, Serena, inférence locale, réseau fermé, routage de modèles, réseau de défense, codage sécurisé. Source : hoodini/ai-agents-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que local-llm-router ?

Acheminez les requêtes de codage de l'IA vers des LLM locaux dans des réseaux isolés. Intègre Serena MCP pour la compréhension du code sémantique. À utiliser lorsque vous travaillez hors ligne, avec des modèles locaux (Ollama, LM Studio, Jan, OpenWebUI) ou dans des environnements sécurisés/fermés. Déclencheurs sur LLM local, Ollama, LM Studio, Jan, IA hors ligne, Serena, inférence locale, réseau fermé, routage de modèles, réseau de défense, codage sécurisé. Source : hoodini/ai-agents-skills.

Comment installer local-llm-router ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/hoodini/ai-agents-skills