local-llm-router
✓Enrute consultas de codificación de IA a LLM locales en redes aisladas. Integra Serena MCP para la comprensión del código semántico. Úselo cuando trabaje sin conexión, con modelos locales (Ollama, LM Studio, Jan, OpenWebUI) o en entornos seguros/cerrados. Activadores en LLM local, Ollama, LM Studio, Jan, IA sin conexión, Serena, inferencia local, red cerrada, enrutamiento de modelos, red de defensa, codificación segura.
Instalación
SKILL.md
Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.
CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.
| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |
Enrute consultas de codificación de IA a LLM locales en redes aisladas. Integra Serena MCP para la comprensión del código semántico. Úselo cuando trabaje sin conexión, con modelos locales (Ollama, LM Studio, Jan, OpenWebUI) o en entornos seguros/cerrados. Activadores en LLM local, Ollama, LM Studio, Jan, IA sin conexión, Serena, inferencia local, red cerrada, enrutamiento de modelos, red de defensa, codificación segura. Fuente: hoodini/ai-agents-skills.
Datos (listos para citar)
Campos y comandos estables para citas de IA/búsqueda.
- Comando de instalación
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router- Fuente
- hoodini/ai-agents-skills
- Categoría
- </>Desarrollo
- Verificado
- ✓
- Primera vez visto
- 2026-02-01
- Actualizado
- 2026-02-18
Respuestas rápidas
¿Qué es local-llm-router?
Enrute consultas de codificación de IA a LLM locales en redes aisladas. Integra Serena MCP para la comprensión del código semántico. Úselo cuando trabaje sin conexión, con modelos locales (Ollama, LM Studio, Jan, OpenWebUI) o en entornos seguros/cerrados. Activadores en LLM local, Ollama, LM Studio, Jan, IA sin conexión, Serena, inferencia local, red cerrada, enrutamiento de modelos, red de defensa, codificación segura. Fuente: hoodini/ai-agents-skills.
¿Cómo instalo local-llm-router?
Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor
¿Dónde está el repositorio de origen?
https://github.com/hoodini/ai-agents-skills
Detalles
- Categoría
- </>Desarrollo
- Fuente
- skills.sh
- Primera vez visto
- 2026-02-01