·local-llm-router
</>

local-llm-router

hoodini/ai-agents-skills

Leiten Sie KI-Codierungsabfragen an lokale LLMs in Air-Gap-Netzwerken weiter. Integriert Serena MCP für das Verständnis semantischen Codes. Verwenden Sie es, wenn Sie offline, mit lokalen Modellen (Ollama, LM Studio, Jan, OpenWebUI) oder in sicheren/geschlossenen Umgebungen arbeiten. Trigger auf lokalem LLM, Ollama, LM Studio, Jan, Air-Gapped, Offline-KI, Serena, lokaler Inferenz, geschlossenem Netzwerk, Modellrouting, Verteidigungsnetzwerk, sicherer Codierung.

16Installationen·1Trend·@hoodini

Installation

$npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router

SKILL.md

Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.

CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.

| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |

Leiten Sie KI-Codierungsabfragen an lokale LLMs in Air-Gap-Netzwerken weiter. Integriert Serena MCP für das Verständnis semantischen Codes. Verwenden Sie es, wenn Sie offline, mit lokalen Modellen (Ollama, LM Studio, Jan, OpenWebUI) oder in sicheren/geschlossenen Umgebungen arbeiten. Trigger auf lokalem LLM, Ollama, LM Studio, Jan, Air-Gapped, Offline-KI, Serena, lokaler Inferenz, geschlossenem Netzwerk, Modellrouting, Verteidigungsnetzwerk, sicherer Codierung. Quelle: hoodini/ai-agents-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist local-llm-router?

Leiten Sie KI-Codierungsabfragen an lokale LLMs in Air-Gap-Netzwerken weiter. Integriert Serena MCP für das Verständnis semantischen Codes. Verwenden Sie es, wenn Sie offline, mit lokalen Modellen (Ollama, LM Studio, Jan, OpenWebUI) oder in sicheren/geschlossenen Umgebungen arbeiten. Trigger auf lokalem LLM, Ollama, LM Studio, Jan, Air-Gapped, Offline-KI, Serena, lokaler Inferenz, geschlossenem Netzwerk, Modellrouting, Verteidigungsnetzwerk, sicherer Codierung. Quelle: hoodini/ai-agents-skills.

Wie installiere ich local-llm-router?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/hoodini/ai-agents-skills