·eval-audit
{}

eval-audit

Prüfen Sie eine LLM-Evaluierungspipeline und decken Sie Probleme auf: fehlende Fehleranalyse, nicht validierte Beurteilungen, Vanity-Metriken usw. Verwenden Sie diese Option, wenn Sie ein Evaluierungssystem übernehmen, wenn Sie nicht sicher sind, ob Evaluierungen vertrauenswürdig sind, oder als Ausgangspunkt, wenn keine Evaluierungsinfrastruktur vorhanden ist. NICHT verwenden, wenn das Ziel darin besteht, einen neuen Evaluator von Grund auf zu erstellen (verwenden Sie stattdessen Fehleranalyse, Write-Judge-Prompt oder Validate-Evaluator).

81Installationen·3Trend·@hamelsmu

Installation

$npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit

So installieren Sie eval-audit

Installieren Sie den KI-Skill eval-audit schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: hamelsmu/evals-skills.

Inspect an LLM eval pipeline and produce a prioritized list of problems with concrete next steps.

Access to eval artifacts (traces, evaluator configs, judge prompts, labeled data) via an observability MCP server or local files. If none exist, skip to "No Eval Infrastructure."

Check whether the user has an observability MCP server connected (Phoenix, Braintrust, LangSmith, Truesight or similar). If available, use it to pull traces, evaluator definitions, and experiment results. If not, ask for local files: CSVs, JSON trace exports, notebooks, or evaluation scripts.

Prüfen Sie eine LLM-Evaluierungspipeline und decken Sie Probleme auf: fehlende Fehleranalyse, nicht validierte Beurteilungen, Vanity-Metriken usw. Verwenden Sie diese Option, wenn Sie ein Evaluierungssystem übernehmen, wenn Sie nicht sicher sind, ob Evaluierungen vertrauenswürdig sind, oder als Ausgangspunkt, wenn keine Evaluierungsinfrastruktur vorhanden ist. NICHT verwenden, wenn das Ziel darin besteht, einen neuen Evaluator von Grund auf zu erstellen (verwenden Sie stattdessen Fehleranalyse, Write-Judge-Prompt oder Validate-Evaluator). Quelle: hamelsmu/evals-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
Kategorie
{}Datenanalyse
Verifiziert
Erstes Auftreten
2026-03-04
Aktualisiert
2026-03-10

Browse more skills from hamelsmu/evals-skills

Schnelle Antworten

Was ist eval-audit?

Prüfen Sie eine LLM-Evaluierungspipeline und decken Sie Probleme auf: fehlende Fehleranalyse, nicht validierte Beurteilungen, Vanity-Metriken usw. Verwenden Sie diese Option, wenn Sie ein Evaluierungssystem übernehmen, wenn Sie nicht sicher sind, ob Evaluierungen vertrauenswürdig sind, oder als Ausgangspunkt, wenn keine Evaluierungsinfrastruktur vorhanden ist. NICHT verwenden, wenn das Ziel darin besteht, einen neuen Evaluator von Grund auf zu erstellen (verwenden Sie stattdessen Fehleranalyse, Write-Judge-Prompt oder Validate-Evaluator). Quelle: hamelsmu/evals-skills.

Wie installiere ich eval-audit?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/hamelsmu/evals-skills