promptfoo-evaluation
✓Promptfoo 프레임워크를 사용하여 LLM 평가를 구성하고 실행합니다. 프롬프트 테스트를 설정하고, 평가 구성(promptfooconfig.yaml)을 생성하고, Python 사용자 정의 어설션을 작성하고, LLM-as-judge를 위한 llm-rubric을 구현하거나 프롬프트에서 몇 번의 샷 예제를 관리할 때 사용합니다. "promptfoo", "eval", "LLM 평가", "프롬프트 테스트" 또는 "모델 비교"와 같은 키워드에 대해 트리거됩니다.
SKILL.md
This skill provides guidance for configuring and running LLM evaluations using Promptfoo, an open-source CLI tool for testing and comparing LLM outputs.
Embed examples directly in prompt or use chat format with assistant messages:
Create a Python file for custom assertions (e.g., scripts/metrics.py):
Promptfoo 프레임워크를 사용하여 LLM 평가를 구성하고 실행합니다. 프롬프트 테스트를 설정하고, 평가 구성(promptfooconfig.yaml)을 생성하고, Python 사용자 정의 어설션을 작성하고, LLM-as-judge를 위한 llm-rubric을 구현하거나 프롬프트에서 몇 번의 샷 예제를 관리할 때 사용합니다. "promptfoo", "eval", "LLM 평가", "프롬프트 테스트" 또는 "모델 비교"와 같은 키워드에 대해 트리거됩니다. 출처: daymade/claude-code-skills.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
promptfoo-evaluation이란?
Promptfoo 프레임워크를 사용하여 LLM 평가를 구성하고 실행합니다. 프롬프트 테스트를 설정하고, 평가 구성(promptfooconfig.yaml)을 생성하고, Python 사용자 정의 어설션을 작성하고, LLM-as-judge를 위한 llm-rubric을 구현하거나 프롬프트에서 몇 번의 샷 예제를 관리할 때 사용합니다. "promptfoo", "eval", "LLM 평가", "프롬프트 테스트" 또는 "모델 비교"와 같은 키워드에 대해 트리거됩니다. 출처: daymade/claude-code-skills.
promptfoo-evaluation 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/daymade/claude-code-skills
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01