Что такое local-llm-router?
Направляйте запросы кодирования ИИ к локальным LLM в изолированных сетях. Интегрирует Serena MCP для понимания семантического кода. Используйте при работе в автономном режиме, с локальными моделями (Ollama, LM Studio, Jan, OpenWebUI) или в безопасных/закрытых средах. Триггеры по локальному LLM, Ollama, LM Studio, Jan, с воздушным зазором, автономному искусственному интеллекту, Serena, локальному выводу, закрытой сети, маршрутизации модели, защитной сети, безопасному кодированию. Источник: hoodini/ai-agents-skills.