llm-models
✓Greifen Sie über die inference.sh-CLI mit OpenRouter auf Claude, Gemini, Kimi, GLM und über 100 LLMs zu. Modelle: Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5, Gemini 3 Pro, Kimi K2, GLM-4.6, Intellect 3. Eine API für alle Modelle mit automatischem Fallback und Kostenoptimierung. Verwendung für: KI-Assistenten, Codegenerierung, Argumentation, Agenten, Chat, Inhaltsgenerierung. Auslöser: Claude API, OpenRouter, LLM API, Claude Sonett, Claude Opus, Gemini API, Kimi, Sprachmodell, GPT-Alternative, Anthropische API, KI-Modell-API, LLM-Zugriff, Chat-API, Claude Alternative, Openai Alternative
Installation
SKILL.md
| Claude Opus 4.5 | openrouter/claude-opus-45 | Complex reasoning, coding | | Claude Sonnet 4.5 | openrouter/claude-sonnet-45 | Balanced performance | | Claude Haiku 4.5 | openrouter/claude-haiku-45 | Fast, economical | | Gemini 3 Pro | openrouter/gemini-3-pro-preview | Google's latest |
| Kimi K2 Thinking | openrouter/kimi-k2-thinking | Multi-step reasoning | | GLM-4.6 | openrouter/glm-46 | Open-source, coding | | Intellect 3 | openrouter/intellect-3 | General purpose | | Any Model | openrouter/any-model | Auto-selects best option |
Greifen Sie über die inference.sh-CLI mit OpenRouter auf Claude, Gemini, Kimi, GLM und über 100 LLMs zu. Modelle: Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5, Gemini 3 Pro, Kimi K2, GLM-4.6, Intellect 3. Eine API für alle Modelle mit automatischem Fallback und Kostenoptimierung. Verwendung für: KI-Assistenten, Codegenerierung, Argumentation, Agenten, Chat, Inhaltsgenerierung. Auslöser: Claude API, OpenRouter, LLM API, Claude Sonett, Claude Opus, Gemini API, Kimi, Sprachmodell, GPT-Alternative, Anthropische API, KI-Modell-API, LLM-Zugriff, Chat-API, Claude Alternative, Openai Alternative Quelle: inference-sh/agent-skills-registry.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/inference-sh/agent-skills-registry --skill llm-models- Kategorie
- </>Entwicklung
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-07
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist llm-models?
Greifen Sie über die inference.sh-CLI mit OpenRouter auf Claude, Gemini, Kimi, GLM und über 100 LLMs zu. Modelle: Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5, Gemini 3 Pro, Kimi K2, GLM-4.6, Intellect 3. Eine API für alle Modelle mit automatischem Fallback und Kostenoptimierung. Verwendung für: KI-Assistenten, Codegenerierung, Argumentation, Agenten, Chat, Inhaltsgenerierung. Auslöser: Claude API, OpenRouter, LLM API, Claude Sonett, Claude Opus, Gemini API, Kimi, Sprachmodell, GPT-Alternative, Anthropische API, KI-Modell-API, LLM-Zugriff, Chat-API, Claude Alternative, Openai Alternative Quelle: inference-sh/agent-skills-registry.
Wie installiere ich llm-models?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/inference-sh/agent-skills-registry --skill llm-models Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/inference-sh/agent-skills-registry
Details
- Kategorie
- </>Entwicklung
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-07