promptfoo-evaluation
✓Configure et exécute l'évaluation LLM à l'aide du framework Promptfoo. À utiliser lors de la configuration de tests d'invite, de la création de configurations d'évaluation (promptfooconfig.yaml), de l'écriture d'assertions personnalisées Python, de l'implémentation de la rubrique llm pour LLM-as-judge ou de la gestion de quelques exemples dans les invites. Se déclenche sur des mots-clés tels que "promptfoo", "eval", "évaluation LLM", "test rapide" ou "comparaison de modèles".
Installation
SKILL.md
This skill provides guidance for configuring and running LLM evaluations using Promptfoo, an open-source CLI tool for testing and comparing LLM outputs.
Embed examples directly in prompt or use chat format with assistant messages:
Create a Python file for custom assertions (e.g., scripts/metrics.py):
Configure et exécute l'évaluation LLM à l'aide du framework Promptfoo. À utiliser lors de la configuration de tests d'invite, de la création de configurations d'évaluation (promptfooconfig.yaml), de l'écriture d'assertions personnalisées Python, de l'implémentation de la rubrique llm pour LLM-as-judge ou de la gestion de quelques exemples dans les invites. Se déclenche sur des mots-clés tels que "promptfoo", "eval", "évaluation LLM", "test rapide" ou "comparaison de modèles". Source : daymade/claude-code-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que promptfoo-evaluation ?
Configure et exécute l'évaluation LLM à l'aide du framework Promptfoo. À utiliser lors de la configuration de tests d'invite, de la création de configurations d'évaluation (promptfooconfig.yaml), de l'écriture d'assertions personnalisées Python, de l'implémentation de la rubrique llm pour LLM-as-judge ou de la gestion de quelques exemples dans les invites. Se déclenche sur des mots-clés tels que "promptfoo", "eval", "évaluation LLM", "test rapide" ou "comparaison de modèles". Source : daymade/claude-code-skills.
Comment installer promptfoo-evaluation ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/daymade/claude-code-skills
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01