·llm-evaluation
</>

llm-evaluation

yonatangross/skillforge-claude-plugin

Évaluation des résultats du LLM et évaluation de la qualité. À utiliser lors de la mise en œuvre de modèles LLM en tant que juge, de contrôles de qualité pour les résultats de l'IA ou de pipelines d'évaluation automatisés.

4Installations·0Tendance·@yonatangross

Installation

$npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill llm-evaluation

SKILL.md

Evaluate and validate LLM outputs for quality assurance using RAGAS and LLM-as-judge patterns.

| Faithfulness | RAG grounding | ≥ 0.8 | | Answer Relevancy | Q&A systems | ≥ 0.7 | | Context Precision | Retrieval quality | ≥ 0.7 | | Context Recall | Retrieval completeness | ≥ 0.7 |

| Judge model | GPT-4o-mini or Claude Haiku | | Threshold | 0.7 for production, 0.6 for drafts | | Dimensions | 3-5 most relevant to use case | | Sample size | 50+ for reliable metrics |

Évaluation des résultats du LLM et évaluation de la qualité. À utiliser lors de la mise en œuvre de modèles LLM en tant que juge, de contrôles de qualité pour les résultats de l'IA ou de pipelines d'évaluation automatisés. Source : yonatangross/skillforge-claude-plugin.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill llm-evaluation
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-evaluation ?

Évaluation des résultats du LLM et évaluation de la qualité. À utiliser lors de la mise en œuvre de modèles LLM en tant que juge, de contrôles de qualité pour les résultats de l'IA ou de pipelines d'évaluation automatisés. Source : yonatangross/skillforge-claude-plugin.

Comment installer llm-evaluation ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/yonatangross/skillforge-claude-plugin --skill llm-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/yonatangross/skillforge-claude-plugin