Che cos'è local-llm-router?
Instrada le query di codifica AI agli LLM locali in reti air-gap. Integra Serena MCP per la comprensione del codice semantico. Da utilizzare quando si lavora offline, con modelli locali (Ollama, LM Studio, Jan, OpenWebUI) o in ambienti sicuri/chiusi. Trigger su LLM locale, Ollama, LM Studio, Jan, air-gapped, AI offline, Serena, inferenza locale, rete chiusa, routing del modello, rete di difesa, codifica sicura. Fonte: hoodini/ai-agents-skills.