·skill-evaluator
</>

skill-evaluator

Évaluez la qualité des compétences Claude Code sur 6 dimensions pondérées : qualité du contenu, couverture des déclencheurs, exhaustivité structurelle, profondeur du contenu, cohérence et intégrité, et conformité CONTRIBUTING.md. Produit des rapports d’audit notés avec des conclusions classées par gravité et des recommandations exploitables. Deux modes : (1) Audit rapide – compétence unique, rapport complet par dimension avec notation pondérée ; (2) Audit complet – toutes les compétences en pension, tableau de classement comparatif et résumés par compétence. Se déclenche sur : "évaluer la compétence", "auditer la qualité de la compétence", "noter la compétence", "évaluer la compétence", "vérifier l'exhaustivité de la compétence", "évaluer cette compétence", "vérifier la qualité de la compétence", "noter la compétence", "évaluer la compétence", "audit de compétence", "quelle est la qualité de cette compétence", ou lorsqu'un utilisateur demande des commentaires sur un fichier SKILL.md. Utilisez cette compétence lors de l'examen des compétences avant le déploiement, en comparant la qualité des compétences dans un dépôt ou en diagnostiquant pourquoi une compétence ne parvient pas à s'activer sur des requêtes pertinentes.

16Installations·0Tendance·@mathews-tom

Installation

$npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator

Comment installer skill-evaluator

Installez rapidement le skill IA skill-evaluator dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : mathews-tom/praxis-skills.

Skills that do not activate on relevant queries waste the entire investment in writing them. A skill can have deep, well-structured content and still deliver zero value if its frontmatter description lacks the trigger phrases users actually type. Quality evaluation catches trigger gaps, missing sections, and shallow content before deployment — turning

a skill from a static document into a reliable tool.

| references/evaluation-rubric.md | Detailed 1-5 scoring criteria per dimension, weight justifications, worked examples for calibration |

Évaluez la qualité des compétences Claude Code sur 6 dimensions pondérées : qualité du contenu, couverture des déclencheurs, exhaustivité structurelle, profondeur du contenu, cohérence et intégrité, et conformité CONTRIBUTING.md. Produit des rapports d’audit notés avec des conclusions classées par gravité et des recommandations exploitables. Deux modes : (1) Audit rapide – compétence unique, rapport complet par dimension avec notation pondérée ; (2) Audit complet – toutes les compétences en pension, tableau de classement comparatif et résumés par compétence. Se déclenche sur : "évaluer la compétence", "auditer la qualité de la compétence", "noter la compétence", "évaluer la compétence", "vérifier l'exhaustivité de la compétence", "évaluer cette compétence", "vérifier la qualité de la compétence", "noter la compétence", "évaluer la compétence", "audit de compétence", "quelle est la qualité de cette compétence", ou lorsqu'un utilisateur demande des commentaires sur un fichier SKILL.md. Utilisez cette compétence lors de l'examen des compétences avant le déploiement, en comparant la qualité des compétences dans un dépôt ou en diagnostiquant pourquoi une compétence ne parvient pas à s'activer sur des requêtes pertinentes. Source : mathews-tom/praxis-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-25
Mis à jour
2026-03-10

Browse more skills from mathews-tom/praxis-skills

Réponses rapides

Qu'est-ce que skill-evaluator ?

Évaluez la qualité des compétences Claude Code sur 6 dimensions pondérées : qualité du contenu, couverture des déclencheurs, exhaustivité structurelle, profondeur du contenu, cohérence et intégrité, et conformité CONTRIBUTING.md. Produit des rapports d’audit notés avec des conclusions classées par gravité et des recommandations exploitables. Deux modes : (1) Audit rapide – compétence unique, rapport complet par dimension avec notation pondérée ; (2) Audit complet – toutes les compétences en pension, tableau de classement comparatif et résumés par compétence. Se déclenche sur : "évaluer la compétence", "auditer la qualité de la compétence", "noter la compétence", "évaluer la compétence", "vérifier l'exhaustivité de la compétence", "évaluer cette compétence", "vérifier la qualité de la compétence", "noter la compétence", "évaluer la compétence", "audit de compétence", "quelle est la qualité de cette compétence", ou lorsqu'un utilisateur demande des commentaires sur un fichier SKILL.md. Utilisez cette compétence lors de l'examen des compétences avant le déploiement, en comparant la qualité des compétences dans un dépôt ou en diagnostiquant pourquoi une compétence ne parvient pas à s'activer sur des requêtes pertinentes. Source : mathews-tom/praxis-skills.

Comment installer skill-evaluator ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/mathews-tom/praxis-skills