evaluate-rag이란?
RAG 파이프라인 검색 및 생성 품질 평가를 안내합니다. 검색 증강 생성 시스템을 평가하고, 검색 품질을 측정하고, 생성 충실도 또는 관련성을 평가하고, 검색 테스트를 위한 합성 QA 쌍을 생성하거나 청킹 전략을 최적화할 때 사용합니다. 출처: hamelsmu/evals-skills.
RAG 파이프라인 검색 및 생성 품질 평가를 안내합니다. 검색 증강 생성 시스템을 평가하고, 검색 품질을 측정하고, 생성 충실도 또는 관련성을 평가하고, 검색 테스트를 위한 합성 QA 쌍을 생성하거나 청킹 전략을 최적화할 때 사용합니다.
명령줄에서 evaluate-rag AI 스킬을 개발 환경에 빠르게 설치
출처: hamelsmu/evals-skills.
Complete error analysis on RAG pipeline traces before selecting metrics. Inspect what was retrieved vs. what the model needed. Determine whether the problem is retrieval, generation, or both. Fix retrieval first.
Measure each component independently. Use the appropriate metric for each retrieval stage:
Manual curation (highest quality): Write realistic questions and map each to the exact chunk(s) containing the answer.
RAG 파이프라인 검색 및 생성 품질 평가를 안내합니다. 검색 증강 생성 시스템을 평가하고, 검색 품질을 측정하고, 생성 충실도 또는 관련성을 평가하고, 검색 테스트를 위한 합성 QA 쌍을 생성하거나 청킹 전략을 최적화할 때 사용합니다. 출처: hamelsmu/evals-skills.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/hamelsmu/evals-skills --skill evaluate-ragRAG 파이프라인 검색 및 생성 품질 평가를 안내합니다. 검색 증강 생성 시스템을 평가하고, 검색 품질을 측정하고, 생성 충실도 또는 관련성을 평가하고, 검색 테스트를 위한 합성 QA 쌍을 생성하거나 청킹 전략을 최적화할 때 사용합니다. 출처: hamelsmu/evals-skills.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/hamelsmu/evals-skills --skill evaluate-rag 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/hamelsmu/evals-skills