·llm-models
</>

llm-models

inference-sh/agent-skills

Accédez à Claude, Gemini, Kimi, GLM et plus de 100 LLM via la CLI inference.sh à l'aide d'OpenRouter. Modèles : Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5, Gemini 3 Pro, Kimi K2, GLM-4.6, Intellect 3. Une API pour tous les modèles avec repli automatique et optimisation des coûts. Utiliser pour : assistants IA, génération de code, raisonnement, agents, chat, génération de contenu. Déclencheurs : claude api, openrouter, llm api, claude sonnet, claude opus, gemini api, kimi, modèle de langage, alternative gpt, API anthropique, API modèle ai, accès LLM, API de chat, alternative claude, alternative openai

14Installations·0Tendance·@inference-sh

Installation

$npx skills add https://github.com/inference-sh/agent-skills --skill llm-models

SKILL.md

| Claude Opus 4.5 | openrouter/claude-opus-45 | Complex reasoning, coding | | Claude Sonnet 4.5 | openrouter/claude-sonnet-45 | Balanced performance | | Claude Haiku 4.5 | openrouter/claude-haiku-45 | Fast, economical | | Gemini 3 Pro | openrouter/gemini-3-pro-preview | Google's latest |

| Kimi K2 Thinking | openrouter/kimi-k2-thinking | Multi-step reasoning | | GLM-4.6 | openrouter/glm-46 | Open-source, coding | | Intellect 3 | openrouter/intellect-3 | General purpose | | Any Model | openrouter/any-model | Auto-selects best option |

Accédez à Claude, Gemini, Kimi, GLM et plus de 100 LLM via la CLI inference.sh à l'aide d'OpenRouter. Modèles : Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5, Gemini 3 Pro, Kimi K2, GLM-4.6, Intellect 3. Une API pour tous les modèles avec repli automatique et optimisation des coûts. Utiliser pour : assistants IA, génération de code, raisonnement, agents, chat, génération de contenu. Déclencheurs : claude api, openrouter, llm api, claude sonnet, claude opus, gemini api, kimi, modèle de langage, alternative gpt, API anthropique, API modèle ai, accès LLM, API de chat, alternative claude, alternative openai Source : inference-sh/agent-skills.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/inference-sh/agent-skills --skill llm-models
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-06
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-models ?

Accédez à Claude, Gemini, Kimi, GLM et plus de 100 LLM via la CLI inference.sh à l'aide d'OpenRouter. Modèles : Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5, Gemini 3 Pro, Kimi K2, GLM-4.6, Intellect 3. Une API pour tous les modèles avec repli automatique et optimisation des coûts. Utiliser pour : assistants IA, génération de code, raisonnement, agents, chat, génération de contenu. Déclencheurs : claude api, openrouter, llm api, claude sonnet, claude opus, gemini api, kimi, modèle de langage, alternative gpt, API anthropique, API modèle ai, accès LLM, API de chat, alternative claude, alternative openai Source : inference-sh/agent-skills.

Comment installer llm-models ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/inference-sh/agent-skills --skill llm-models Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/inference-sh/agent-skills