llm-evaluation
✓Tests d'invite LLM, évaluation et portes de qualité CI/CD à l'aide de Promptfoo. Invoquer quand : - Mise en place d'évaluations rapides ou de tests de régression - Intégration des tests LLM dans les pipelines CI/CD - Configuration des tests de sécurité (red teaming, jailbreaks) - Comparaison des performances des invites ou des modèles - Création de suites d'évaluation pour RAG, factualité ou sécurité Mots-clés : promptfoo, évaluation llm, tests rapides, équipe rouge, CI/CD, tests de régression
Installation
SKILL.md
Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.
LLM outputs are non-deterministic. "It looks good" isn't testing. You need:
| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |
Tests d'invite LLM, évaluation et portes de qualité CI/CD à l'aide de Promptfoo. Invoquer quand : - Mise en place d'évaluations rapides ou de tests de régression - Intégration des tests LLM dans les pipelines CI/CD - Configuration des tests de sécurité (red teaming, jailbreaks) - Comparaison des performances des invites ou des modèles - Création de suites d'évaluation pour RAG, factualité ou sécurité Mots-clés : promptfoo, évaluation llm, tests rapides, équipe rouge, CI/CD, tests de régression Source : phrazzld/claude-config.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation- Source
- phrazzld/claude-config
- Catégorie
- </>Développement
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que llm-evaluation ?
Tests d'invite LLM, évaluation et portes de qualité CI/CD à l'aide de Promptfoo. Invoquer quand : - Mise en place d'évaluations rapides ou de tests de régression - Intégration des tests LLM dans les pipelines CI/CD - Configuration des tests de sécurité (red teaming, jailbreaks) - Comparaison des performances des invites ou des modèles - Création de suites d'évaluation pour RAG, factualité ou sécurité Mots-clés : promptfoo, évaluation llm, tests rapides, équipe rouge, CI/CD, tests de régression Source : phrazzld/claude-config.
Comment installer llm-evaluation ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/phrazzld/claude-config
Détails
- Catégorie
- </>Développement
- Source
- skills.sh
- Première apparition
- 2026-02-01