llm-evaluation
✓Promptfoo를 사용하여 LLM 프롬프트 테스트, 평가 및 CI/CD 품질 게이트를 수행합니다. 다음과 같은 경우에 호출하십시오. - 즉각적인 평가 또는 회귀 테스트 설정 - CI/CD 파이프라인에 LLM 테스트 통합 - 보안 테스트 구성(레드팀 구성, 탈옥) - 프롬프트 또는 모델 성능 비교 - RAG, 사실성 또는 안전성에 대한 평가 스위트 구축 키워드: Promptfoo, LLM 평가, 프롬프트 테스트, 레드팀, CI/CD, 회귀 테스트
SKILL.md
Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.
LLM outputs are non-deterministic. "It looks good" isn't testing. You need:
| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |
Promptfoo를 사용하여 LLM 프롬프트 테스트, 평가 및 CI/CD 품질 게이트를 수행합니다. 다음과 같은 경우에 호출하십시오. - 즉각적인 평가 또는 회귀 테스트 설정 - CI/CD 파이프라인에 LLM 테스트 통합 - 보안 테스트 구성(레드팀 구성, 탈옥) - 프롬프트 또는 모델 성능 비교 - RAG, 사실성 또는 안전성에 대한 평가 스위트 구축 키워드: Promptfoo, LLM 평가, 프롬프트 테스트, 레드팀, CI/CD, 회귀 테스트 출처: phrazzld/claude-config.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
llm-evaluation이란?
Promptfoo를 사용하여 LLM 프롬프트 테스트, 평가 및 CI/CD 품질 게이트를 수행합니다. 다음과 같은 경우에 호출하십시오. - 즉각적인 평가 또는 회귀 테스트 설정 - CI/CD 파이프라인에 LLM 테스트 통합 - 보안 테스트 구성(레드팀 구성, 탈옥) - 프롬프트 또는 모델 성능 비교 - RAG, 사실성 또는 안전성에 대한 평가 스위트 구축 키워드: Promptfoo, LLM 평가, 프롬프트 테스트, 레드팀, CI/CD, 회귀 테스트 출처: phrazzld/claude-config.
llm-evaluation 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/phrazzld/claude-config
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01