·advanced-evaluation
</>

advanced-evaluation

Cette compétence doit être utilisée lorsque l'utilisateur demande de « mettre en œuvre LLM-as-juge », « comparer les résultats du modèle », « créer des rubriques d'évaluation », « atténuer les biais d'évaluation » ou mentionne la notation directe, la comparaison par paires, le biais de position, les pipelines d'évaluation ou l'évaluation automatisée de la qualité.

3Installations·0Tendance·@chakshugautam

Installation

$npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation

Comment installer advanced-evaluation

Installez rapidement le skill IA advanced-evaluation dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : chakshugautam/games.

This skill covers production-grade techniques for evaluating LLM outputs using LLMs as judges. It synthesizes research from academic papers, industry practices, and practical implementation experience into actionable patterns for building reliable evaluation systems.

Key insight: LLM-as-a-Judge is not a single technique but a family of approaches, each suited to different evaluation contexts. Choosing the right approach and mitigating known biases is the core competency this skill develops.

Evaluation approaches fall into two primary categories with distinct reliability profiles:

Cette compétence doit être utilisée lorsque l'utilisateur demande de « mettre en œuvre LLM-as-juge », « comparer les résultats du modèle », « créer des rubriques d'évaluation », « atténuer les biais d'évaluation » ou mentionne la notation directe, la comparaison par paires, le biais de position, les pipelines d'évaluation ou l'évaluation automatisée de la qualité. Source : chakshugautam/games.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-26
Mis à jour
2026-03-11

Browse more skills from chakshugautam/games

Réponses rapides

Qu'est-ce que advanced-evaluation ?

Cette compétence doit être utilisée lorsque l'utilisateur demande de « mettre en œuvre LLM-as-juge », « comparer les résultats du modèle », « créer des rubriques d'évaluation », « atténuer les biais d'évaluation » ou mentionne la notation directe, la comparaison par paires, le biais de position, les pipelines d'évaluation ou l'évaluation automatisée de la qualité. Source : chakshugautam/games.

Comment installer advanced-evaluation ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/chakshugautam/games

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-02-26