·skill-evaluator
</>

skill-evaluator

Bewerten Sie die Qualität der Claude Code-Fähigkeiten anhand von sechs gewichteten Dimensionen: Frontmatter-Qualität, Trigger-Abdeckung, strukturelle Vollständigkeit, Inhaltstiefe, Konsistenz und Integrität sowie CONTRIBUTING.md-Konformität. Erstellt bewertete Auditberichte mit nach Schweregrad klassifizierten Ergebnissen und umsetzbaren Empfehlungen. Zwei Modi: (1) Quick Audit – einzelner Skill, vollständiger Bericht pro Dimension mit gewichteter Bewertung; (2) Vollständiges Audit – alle Fähigkeiten im Repo, vergleichende Rangliste plus Zusammenfassungen pro Fähigkeit. Wird ausgelöst bei: „Fähigkeit bewerten“, „Fähigkeitsqualität prüfen“, „Fähigkeit bewerten“, „Fähigkeitsüberprüfung“, „Fähigkeitsvollständigkeit prüfen“, „diese Fertigkeit bewerten“, „Fähigkeitsqualität prüfen“, „Fähigkeit bewerten“, „Fähigkeit bewerten“, „Fertigkeitsprüfung“, „Wie gut ist diese Fertigkeit“ oder wenn ein Benutzer um Feedback zu einer SKILL.md-Datei bittet. Verwenden Sie diesen Skill, wenn Sie Skills vor der Bereitstellung überprüfen, die Skillqualität in einem Repository vergleichen oder diagnostizieren, warum ein Skill bei relevanten Abfragen nicht aktiviert werden kann.

16Installationen·0Trend·@mathews-tom

Installation

$npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator

So installieren Sie skill-evaluator

Installieren Sie den KI-Skill skill-evaluator schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: mathews-tom/praxis-skills.

Skills that do not activate on relevant queries waste the entire investment in writing them. A skill can have deep, well-structured content and still deliver zero value if its frontmatter description lacks the trigger phrases users actually type. Quality evaluation catches trigger gaps, missing sections, and shallow content before deployment — turning

a skill from a static document into a reliable tool.

| references/evaluation-rubric.md | Detailed 1-5 scoring criteria per dimension, weight justifications, worked examples for calibration |

Bewerten Sie die Qualität der Claude Code-Fähigkeiten anhand von sechs gewichteten Dimensionen: Frontmatter-Qualität, Trigger-Abdeckung, strukturelle Vollständigkeit, Inhaltstiefe, Konsistenz und Integrität sowie CONTRIBUTING.md-Konformität. Erstellt bewertete Auditberichte mit nach Schweregrad klassifizierten Ergebnissen und umsetzbaren Empfehlungen. Zwei Modi: (1) Quick Audit – einzelner Skill, vollständiger Bericht pro Dimension mit gewichteter Bewertung; (2) Vollständiges Audit – alle Fähigkeiten im Repo, vergleichende Rangliste plus Zusammenfassungen pro Fähigkeit. Wird ausgelöst bei: „Fähigkeit bewerten“, „Fähigkeitsqualität prüfen“, „Fähigkeit bewerten“, „Fähigkeitsüberprüfung“, „Fähigkeitsvollständigkeit prüfen“, „diese Fertigkeit bewerten“, „Fähigkeitsqualität prüfen“, „Fähigkeit bewerten“, „Fähigkeit bewerten“, „Fertigkeitsprüfung“, „Wie gut ist diese Fertigkeit“ oder wenn ein Benutzer um Feedback zu einer SKILL.md-Datei bittet. Verwenden Sie diesen Skill, wenn Sie Skills vor der Bereitstellung überprüfen, die Skillqualität in einem Repository vergleichen oder diagnostizieren, warum ein Skill bei relevanten Abfragen nicht aktiviert werden kann. Quelle: mathews-tom/praxis-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-25
Aktualisiert
2026-03-10

Browse more skills from mathews-tom/praxis-skills

Schnelle Antworten

Was ist skill-evaluator?

Bewerten Sie die Qualität der Claude Code-Fähigkeiten anhand von sechs gewichteten Dimensionen: Frontmatter-Qualität, Trigger-Abdeckung, strukturelle Vollständigkeit, Inhaltstiefe, Konsistenz und Integrität sowie CONTRIBUTING.md-Konformität. Erstellt bewertete Auditberichte mit nach Schweregrad klassifizierten Ergebnissen und umsetzbaren Empfehlungen. Zwei Modi: (1) Quick Audit – einzelner Skill, vollständiger Bericht pro Dimension mit gewichteter Bewertung; (2) Vollständiges Audit – alle Fähigkeiten im Repo, vergleichende Rangliste plus Zusammenfassungen pro Fähigkeit. Wird ausgelöst bei: „Fähigkeit bewerten“, „Fähigkeitsqualität prüfen“, „Fähigkeit bewerten“, „Fähigkeitsüberprüfung“, „Fähigkeitsvollständigkeit prüfen“, „diese Fertigkeit bewerten“, „Fähigkeitsqualität prüfen“, „Fähigkeit bewerten“, „Fähigkeit bewerten“, „Fertigkeitsprüfung“, „Wie gut ist diese Fertigkeit“ oder wenn ein Benutzer um Feedback zu einer SKILL.md-Datei bittet. Verwenden Sie diesen Skill, wenn Sie Skills vor der Bereitstellung überprüfen, die Skillqualität in einem Repository vergleichen oder diagnostizieren, warum ein Skill bei relevanten Abfragen nicht aktiviert werden kann. Quelle: mathews-tom/praxis-skills.

Wie installiere ich skill-evaluator?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/mathews-tom/praxis-skills