llm_evaluation
✓자동화된 지표, 인적 피드백 및 벤치마킹을 사용하여 LLM 응용 프로그램에 대한 포괄적인 평가 전략을 구현합니다. LLM 성능 테스트, AI 애플리케이션 품질 측정 또는 평가 프레임워크 구축 시 사용합니다.
SKILL.md
Master comprehensive evaluation strategies for LLM applications, from automated metrics to human evaluation and A/B testing.
Automated Metrics Fast, repeatable, scalable evaluation using computed scores.
Human Evaluation Manual assessment for quality aspects difficult to automate.
자동화된 지표, 인적 피드백 및 벤치마킹을 사용하여 LLM 응용 프로그램에 대한 포괄적인 평가 전략을 구현합니다. LLM 성능 테스트, AI 애플리케이션 품질 측정 또는 평가 프레임워크 구축 시 사용합니다. 출처: vuralserhat86/antigravity-agentic-skills.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/vuralserhat86/antigravity-agentic-skills --skill llm_evaluation- 카테고리
- </>개발 도구
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
llm_evaluation이란?
자동화된 지표, 인적 피드백 및 벤치마킹을 사용하여 LLM 응용 프로그램에 대한 포괄적인 평가 전략을 구현합니다. LLM 성능 테스트, AI 애플리케이션 품질 측정 또는 평가 프레임워크 구축 시 사용합니다. 출처: vuralserhat86/antigravity-agentic-skills.
llm_evaluation 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/vuralserhat86/antigravity-agentic-skills --skill llm_evaluation 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/vuralserhat86/antigravity-agentic-skills
상세
- 카테고리
- </>개발 도구
- 출처
- skills.sh
- 최초 등록
- 2026-02-01