·write-judge-prompt
</>

write-judge-prompt

Entwerfen Sie LLM-as-Judge-Evaluatoren für subjektive Kriterien, die codebasierte Prüfungen nicht verarbeiten können. Verwenden Sie diese Option, wenn ein Fehlermodus eine Interpretation erfordert (Ton, Treue, Relevanz, Vollständigkeit). NICHT verwenden, wenn der Fehlermodus mit Code überprüft werden kann (Regex, Schemavalidierung, Ausführungstests). NICHT verwenden, wenn Sie den Richter validieren oder kalibrieren müssen – verwenden Sie stattdessen „validate-evaluator“.

76Installationen·3Trend·@hamelsmu

Installation

$npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt

So installieren Sie write-judge-prompt

Installieren Sie den KI-Skill write-judge-prompt schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: hamelsmu/evals-skills.

Design a binary Pass/Fail LLM-as-Judge evaluator for one specific failure mode. Each judge checks exactly one thing.

State what the judge evaluates. One failure mode per judge.

Not: "Evaluate whether the email is good" or "Rate the email quality from 1-5."

Entwerfen Sie LLM-as-Judge-Evaluatoren für subjektive Kriterien, die codebasierte Prüfungen nicht verarbeiten können. Verwenden Sie diese Option, wenn ein Fehlermodus eine Interpretation erfordert (Ton, Treue, Relevanz, Vollständigkeit). NICHT verwenden, wenn der Fehlermodus mit Code überprüft werden kann (Regex, Schemavalidierung, Ausführungstests). NICHT verwenden, wenn Sie den Richter validieren oder kalibrieren müssen – verwenden Sie stattdessen „validate-evaluator“. Quelle: hamelsmu/evals-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-04
Aktualisiert
2026-03-10

Browse more skills from hamelsmu/evals-skills

Schnelle Antworten

Was ist write-judge-prompt?

Entwerfen Sie LLM-as-Judge-Evaluatoren für subjektive Kriterien, die codebasierte Prüfungen nicht verarbeiten können. Verwenden Sie diese Option, wenn ein Fehlermodus eine Interpretation erfordert (Ton, Treue, Relevanz, Vollständigkeit). NICHT verwenden, wenn der Fehlermodus mit Code überprüft werden kann (Regex, Schemavalidierung, Ausführungstests). NICHT verwenden, wenn Sie den Richter validieren oder kalibrieren müssen – verwenden Sie stattdessen „validate-evaluator“. Quelle: hamelsmu/evals-skills.

Wie installiere ich write-judge-prompt?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/hamelsmu/evals-skills