·local-llm-router
</>

local-llm-router

Instrada le query di codifica AI agli LLM locali in reti air-gap. Integra Serena MCP per la comprensione del codice semantico. Da utilizzare quando si lavora offline, con modelli locali (Ollama, LM Studio, Jan, OpenWebUI) o in ambienti sicuri/chiusi. Trigger su LLM locale, Ollama, LM Studio, Jan, air-gapped, AI offline, Serena, inferenza locale, rete chiusa, routing del modello, rete di difesa, codifica sicura.

42Installazioni·1Tendenza·@hoodini

Installazione

$npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router

Come installare local-llm-router

Installa rapidamente la skill AI local-llm-router nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: hoodini/ai-agents-skills.

Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.

CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.

| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |

Instrada le query di codifica AI agli LLM locali in reti air-gap. Integra Serena MCP per la comprensione del codice semantico. Da utilizzare quando si lavora offline, con modelli locali (Ollama, LM Studio, Jan, OpenWebUI) o in ambienti sicuri/chiusi. Trigger su LLM locale, Ollama, LM Studio, Jan, air-gapped, AI offline, Serena, inferenza locale, rete chiusa, routing del modello, rete di difesa, codifica sicura. Fonte: hoodini/ai-agents-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-02-01
Aggiornato
2026-03-10

Browse more skills from hoodini/ai-agents-skills

Risposte rapide

Che cos'è local-llm-router?

Instrada le query di codifica AI agli LLM locali in reti air-gap. Integra Serena MCP per la comprensione del codice semantico. Da utilizzare quando si lavora offline, con modelli locali (Ollama, LM Studio, Jan, OpenWebUI) o in ambienti sicuri/chiusi. Trigger su LLM locale, Ollama, LM Studio, Jan, air-gapped, AI offline, Serena, inferenza locale, rete chiusa, routing del modello, rete di difesa, codifica sicura. Fonte: hoodini/ai-agents-skills.

Come installo local-llm-router?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/hoodini/ai-agents-skills