·eval-audit
{}

eval-audit

Auditez un pipeline d'évaluation LLM et faites apparaître les problèmes : analyse des erreurs manquantes, juges non validés, mesures de vanité, etc. À utiliser lors de l'héritage d'un système d'évaluation, en cas de doute sur la fiabilité des évaluations ou comme point de départ lorsqu'aucune infrastructure d'évaluation n'existe. Ne pas utiliser lorsque l'objectif est de créer un nouvel évaluateur à partir de zéro (utilisez plutôt l'analyse des erreurs, l'invite de jugement d'écriture ou la validation de l'évaluateur).

81Installations·3Tendance·@hamelsmu

Installation

$npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit

Comment installer eval-audit

Installez rapidement le skill IA eval-audit dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : hamelsmu/evals-skills.

Inspect an LLM eval pipeline and produce a prioritized list of problems with concrete next steps.

Access to eval artifacts (traces, evaluator configs, judge prompts, labeled data) via an observability MCP server or local files. If none exist, skip to "No Eval Infrastructure."

Check whether the user has an observability MCP server connected (Phoenix, Braintrust, LangSmith, Truesight or similar). If available, use it to pull traces, evaluator definitions, and experiment results. If not, ask for local files: CSVs, JSON trace exports, notebooks, or evaluation scripts.

Auditez un pipeline d'évaluation LLM et faites apparaître les problèmes : analyse des erreurs manquantes, juges non validés, mesures de vanité, etc. À utiliser lors de l'héritage d'un système d'évaluation, en cas de doute sur la fiabilité des évaluations ou comme point de départ lorsqu'aucune infrastructure d'évaluation n'existe. Ne pas utiliser lorsque l'objectif est de créer un nouvel évaluateur à partir de zéro (utilisez plutôt l'analyse des erreurs, l'invite de jugement d'écriture ou la validation de l'évaluateur). Source : hamelsmu/evals-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-03-04
Mis à jour
2026-03-10

Browse more skills from hamelsmu/evals-skills

Réponses rapides

Qu'est-ce que eval-audit ?

Auditez un pipeline d'évaluation LLM et faites apparaître les problèmes : analyse des erreurs manquantes, juges non validés, mesures de vanité, etc. À utiliser lors de l'héritage d'un système d'évaluation, en cas de doute sur la fiabilité des évaluations ou comme point de départ lorsqu'aucune infrastructure d'évaluation n'existe. Ne pas utiliser lorsque l'objectif est de créer un nouvel évaluateur à partir de zéro (utilisez plutôt l'analyse des erreurs, l'invite de jugement d'écriture ou la validation de l'évaluateur). Source : hamelsmu/evals-skills.

Comment installer eval-audit ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/hamelsmu/evals-skills