·skill-evaluator
</>

skill-evaluator

서문 품질, 트리거 적용 범위, 구조적 완전성, 콘텐츠 깊이, 일관성 및 무결성, CONTRIBUTING.md 규정 준수 등 6가지 가중치 기준에 걸쳐 Claude Code 기술 품질을 평가합니다. 심각도별로 분류된 결과와 실행 가능한 권장 사항이 포함된 점수가 매겨진 감사 보고서를 생성합니다. 두 가지 모드: (1) 빠른 감사 — 단일 기술, 가중치 점수가 포함된 전체 차원별 보고서; (2) 전체 감사 — 리포지토리의 모든 기술, 비교 순위 테이블 및 기술별 요약. 트리거 조건: "기술 평가", "기술 품질 감사", "기술 점수", "기술 검토", "기술 완성도 확인", "이 기술 평가", "기술 품질 확인", "기술 등급", "기술 평가", "기술 감사", "이 기술이 얼마나 좋은지" 또는 사용자가 SKILL.md 파일에 대한 피드백을 요청할 때. 배포 전에 기술을 검토하거나, 리포지토리 전체에서 기술 품질을 비교하거나, 관련 쿼리에서 기술이 활성화되지 않는 이유를 진단할 때 이 기술을 사용하십시오.

16설치·0트렌드·@mathews-tom

설치

$npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator

skill-evaluator 설치 방법

명령줄에서 skill-evaluator AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: mathews-tom/praxis-skills.

Skills that do not activate on relevant queries waste the entire investment in writing them. A skill can have deep, well-structured content and still deliver zero value if its frontmatter description lacks the trigger phrases users actually type. Quality evaluation catches trigger gaps, missing sections, and shallow content before deployment — turning

a skill from a static document into a reliable tool.

| references/evaluation-rubric.md | Detailed 1-5 scoring criteria per dimension, weight justifications, worked examples for calibration |

서문 품질, 트리거 적용 범위, 구조적 완전성, 콘텐츠 깊이, 일관성 및 무결성, CONTRIBUTING.md 규정 준수 등 6가지 가중치 기준에 걸쳐 Claude Code 기술 품질을 평가합니다. 심각도별로 분류된 결과와 실행 가능한 권장 사항이 포함된 점수가 매겨진 감사 보고서를 생성합니다. 두 가지 모드: (1) 빠른 감사 — 단일 기술, 가중치 점수가 포함된 전체 차원별 보고서; (2) 전체 감사 — 리포지토리의 모든 기술, 비교 순위 테이블 및 기술별 요약. 트리거 조건: "기술 평가", "기술 품질 감사", "기술 점수", "기술 검토", "기술 완성도 확인", "이 기술 평가", "기술 품질 확인", "기술 등급", "기술 평가", "기술 감사", "이 기술이 얼마나 좋은지" 또는 사용자가 SKILL.md 파일에 대한 피드백을 요청할 때. 배포 전에 기술을 검토하거나, 리포지토리 전체에서 기술 품질을 비교하거나, 관련 쿼리에서 기술이 활성화되지 않는 이유를 진단할 때 이 기술을 사용하십시오. 출처: mathews-tom/praxis-skills.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-25
업데이트
2026-03-10

Browse more skills from mathews-tom/praxis-skills

빠른 답변

skill-evaluator이란?

서문 품질, 트리거 적용 범위, 구조적 완전성, 콘텐츠 깊이, 일관성 및 무결성, CONTRIBUTING.md 규정 준수 등 6가지 가중치 기준에 걸쳐 Claude Code 기술 품질을 평가합니다. 심각도별로 분류된 결과와 실행 가능한 권장 사항이 포함된 점수가 매겨진 감사 보고서를 생성합니다. 두 가지 모드: (1) 빠른 감사 — 단일 기술, 가중치 점수가 포함된 전체 차원별 보고서; (2) 전체 감사 — 리포지토리의 모든 기술, 비교 순위 테이블 및 기술별 요약. 트리거 조건: "기술 평가", "기술 품질 감사", "기술 점수", "기술 검토", "기술 완성도 확인", "이 기술 평가", "기술 품질 확인", "기술 등급", "기술 평가", "기술 감사", "이 기술이 얼마나 좋은지" 또는 사용자가 SKILL.md 파일에 대한 피드백을 요청할 때. 배포 전에 기술을 검토하거나, 리포지토리 전체에서 기술 품질을 비교하거나, 관련 쿼리에서 기술이 활성화되지 않는 이유를 진단할 때 이 기술을 사용하십시오. 출처: mathews-tom/praxis-skills.

skill-evaluator 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/mathews-tom/praxis-skills --skill skill-evaluator 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/mathews-tom/praxis-skills

상세

카테고리
</>개발 도구
출처
skills.sh
최초 등록
2026-02-25