·multi-llm-consult
</>

multi-llm-consult

nickcrew/claude-ctx-plugin

Consultez des LLM externes (Gemini, OpenAI/Codex, Qwen) pour des deuxièmes avis, des plans alternatifs, des examens indépendants ou des tâches déléguées. À utiliser lorsqu'un utilisateur demande le point de vue d'un autre modèle, souhaite comparer les réponses ou demande la délégation d'une sous-tâche à Gemini/Codex/Qwen.

10Installations·1Tendance·@nickcrew

Installation

$npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult

SKILL.md

Use a bundled script to query external LLM providers with a sanitized prompt and return a concise comparison.

Consultez des LLM externes (Gemini, OpenAI/Codex, Qwen) pour des deuxièmes avis, des plans alternatifs, des examens indépendants ou des tâches déléguées. À utiliser lorsqu'un utilisateur demande le point de vue d'un autre modèle, souhaite comparer les réponses ou demande la délégation d'une sous-tâche à Gemini/Codex/Qwen. Source : nickcrew/claude-ctx-plugin.

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Certifié sécurisé pour un code sûr et fiable Installation en un clic et configuration simplifiée Compatible avec Claude Code, Cursor et plus

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que multi-llm-consult ?

Consultez des LLM externes (Gemini, OpenAI/Codex, Qwen) pour des deuxièmes avis, des plans alternatifs, des examens indépendants ou des tâches déléguées. À utiliser lorsqu'un utilisateur demande le point de vue d'un autre modèle, souhaite comparer les réponses ou demande la délégation d'une sous-tâche à Gemini/Codex/Qwen. Source : nickcrew/claude-ctx-plugin.

Comment installer multi-llm-consult ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/nickcrew/claude-ctx-plugin --skill multi-llm-consult Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/nickcrew/claude-ctx-plugin