·write-judge-prompt
</>

write-judge-prompt

코드 기반 검사가 처리할 수 없는 주관적인 기준에 대한 LLM-판사 평가자를 설계합니다. 실패 모드에 해석(어조, 충실도, 관련성, 완전성)이 필요할 때 사용합니다. 코드(정규식, 스키마 유효성 검사, 실행 테스트)로 오류 모드를 확인할 수 있는 경우에는 사용하지 마세요. 심판을 검증하거나 보정해야 할 때는 사용하지 마십시오. 대신 검증 평가기를 사용하십시오.

76설치·3트렌드·@hamelsmu

설치

$npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt

write-judge-prompt 설치 방법

명령줄에서 write-judge-prompt AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: hamelsmu/evals-skills.

Design a binary Pass/Fail LLM-as-Judge evaluator for one specific failure mode. Each judge checks exactly one thing.

State what the judge evaluates. One failure mode per judge.

Not: "Evaluate whether the email is good" or "Rate the email quality from 1-5."

코드 기반 검사가 처리할 수 없는 주관적인 기준에 대한 LLM-판사 평가자를 설계합니다. 실패 모드에 해석(어조, 충실도, 관련성, 완전성)이 필요할 때 사용합니다. 코드(정규식, 스키마 유효성 검사, 실행 테스트)로 오류 모드를 확인할 수 있는 경우에는 사용하지 마세요. 심판을 검증하거나 보정해야 할 때는 사용하지 마십시오. 대신 검증 평가기를 사용하십시오. 출처: hamelsmu/evals-skills.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt
카테고리
</>개발 도구
인증됨
최초 등록
2026-03-04
업데이트
2026-03-10

Browse more skills from hamelsmu/evals-skills

빠른 답변

write-judge-prompt이란?

코드 기반 검사가 처리할 수 없는 주관적인 기준에 대한 LLM-판사 평가자를 설계합니다. 실패 모드에 해석(어조, 충실도, 관련성, 완전성)이 필요할 때 사용합니다. 코드(정규식, 스키마 유효성 검사, 실행 테스트)로 오류 모드를 확인할 수 있는 경우에는 사용하지 마세요. 심판을 검증하거나 보정해야 할 때는 사용하지 마십시오. 대신 검증 평가기를 사용하십시오. 출처: hamelsmu/evals-skills.

write-judge-prompt 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/hamelsmu/evals-skills --skill write-judge-prompt 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/hamelsmu/evals-skills