local-llm-router
✓AI コーディング クエリをエアギャップ ネットワーク内のローカル LLM にルーティングします。セマンティック コードを理解するために Serena MCP を統合します。オフラインで作業する場合、ローカル モデル (Ollama、LM Studio、Jan、OpenWebUI) を使用する場合、または安全な/閉じられた環境で作業する場合に使用します。ローカル LLM、Ollama、LM Studio、Jan、エアギャップ、オフライン AI、Serena、ローカル推論、クローズド ネットワーク、モデル ルーティング、防御ネットワーク、セキュア コーディングでトリガーします。
SKILL.md
Intelligent routing of AI coding queries to local LLMs with Serena LSP integration for secure, offline-capable development environments.
CRITICAL: Serena MCP MUST be invoked FIRST for all code-related tasks. This provides semantic understanding of the codebase before routing to an LLM.
| Service | Default Endpoint | Health Check | Models Endpoint | Chat Endpoint | API Style |
AI コーディング クエリをエアギャップ ネットワーク内のローカル LLM にルーティングします。セマンティック コードを理解するために Serena MCP を統合します。オフラインで作業する場合、ローカル モデル (Ollama、LM Studio、Jan、OpenWebUI) を使用する場合、または安全な/閉じられた環境で作業する場合に使用します。ローカル LLM、Ollama、LM Studio、Jan、エアギャップ、オフライン AI、Serena、ローカル推論、クローズド ネットワーク、モデル ルーティング、防御ネットワーク、セキュア コーディングでトリガーします。 ソース: hoodini/ai-agents-skills。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
local-llm-router とは?
AI コーディング クエリをエアギャップ ネットワーク内のローカル LLM にルーティングします。セマンティック コードを理解するために Serena MCP を統合します。オフラインで作業する場合、ローカル モデル (Ollama、LM Studio、Jan、OpenWebUI) を使用する場合、または安全な/閉じられた環境で作業する場合に使用します。ローカル LLM、Ollama、LM Studio、Jan、エアギャップ、オフライン AI、Serena、ローカル推論、クローズド ネットワーク、モデル ルーティング、防御ネットワーク、セキュア コーディングでトリガーします。 ソース: hoodini/ai-agents-skills。
local-llm-router のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/hoodini/ai-agents-skills --skill local-llm-router インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/hoodini/ai-agents-skills
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01