local-llm-router
✓Leiten Sie KI-Codierungsabfragen an lokale LLMs in Air-Gap-Netzwerken weiter. Integriert Serena MCP für das Verständnis semantischen Codes. Verwenden Sie es, wenn Sie offline, mit lokalen Modellen (Ollama, LM Studio, Jan, OpenWebUI) oder in sicheren/geschlossenen Umgebungen arbeiten. Trigger auf lokalem LLM, Ollama, LM Studio, Jan, Air-Gapped, Offline-KI, Serena, lokaler Inferenz, geschlossenem Netzwerk, Modellrouting, Verteidigungsnetzwerk, sicherer Codierung.
Installation
SKILL.md
Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.
CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.
| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |
Leiten Sie KI-Codierungsabfragen an lokale LLMs in Air-Gap-Netzwerken weiter. Integriert Serena MCP für das Verständnis semantischen Codes. Verwenden Sie es, wenn Sie offline, mit lokalen Modellen (Ollama, LM Studio, Jan, OpenWebUI) oder in sicheren/geschlossenen Umgebungen arbeiten. Trigger auf lokalem LLM, Ollama, LM Studio, Jan, Air-Gapped, Offline-KI, Serena, lokaler Inferenz, geschlossenem Netzwerk, Modellrouting, Verteidigungsnetzwerk, sicherer Codierung. Quelle: hoodini/ai-agents-skills.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router- Quelle
- hoodini/ai-agents-skills
- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist local-llm-router?
Leiten Sie KI-Codierungsabfragen an lokale LLMs in Air-Gap-Netzwerken weiter. Integriert Serena MCP für das Verständnis semantischen Codes. Verwenden Sie es, wenn Sie offline, mit lokalen Modellen (Ollama, LM Studio, Jan, OpenWebUI) oder in sicheren/geschlossenen Umgebungen arbeiten. Trigger auf lokalem LLM, Ollama, LM Studio, Jan, Air-Gapped, Offline-KI, Serena, lokaler Inferenz, geschlossenem Netzwerk, Modellrouting, Verteidigungsnetzwerk, sicherer Codierung. Quelle: hoodini/ai-agents-skills.
Wie installiere ich local-llm-router?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/hoodini/ai-agents-skills
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01