·llm-evaluation
</>

llm-evaluation

phrazzld/claude-config

Tests d'invite LLM, évaluation et portes de qualité CI/CD à l'aide de Promptfoo. Invoquer quand : - Mise en place d'évaluations rapides ou de tests de régression - Intégration des tests LLM dans les pipelines CI/CD - Configuration des tests de sécurité (red teaming, jailbreaks) - Comparaison des performances des invites ou des modèles - Création de suites d'évaluation pour RAG, factualité ou sécurité Mots-clés : promptfoo, évaluation llm, tests rapides, équipe rouge, CI/CD, tests de régression

9Installations·1Tendance·@phrazzld

Installation

$npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation

SKILL.md

Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.

LLM outputs are non-deterministic. "It looks good" isn't testing. You need:

| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |

Tests d'invite LLM, évaluation et portes de qualité CI/CD à l'aide de Promptfoo. Invoquer quand : - Mise en place d'évaluations rapides ou de tests de régression - Intégration des tests LLM dans les pipelines CI/CD - Configuration des tests de sécurité (red teaming, jailbreaks) - Comparaison des performances des invites ou des modèles - Création de suites d'évaluation pour RAG, factualité ou sécurité Mots-clés : promptfoo, évaluation llm, tests rapides, équipe rouge, CI/CD, tests de régression Source : phrazzld/claude-config.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llm-evaluation ?

Tests d'invite LLM, évaluation et portes de qualité CI/CD à l'aide de Promptfoo. Invoquer quand : - Mise en place d'évaluations rapides ou de tests de régression - Intégration des tests LLM dans les pipelines CI/CD - Configuration des tests de sécurité (red teaming, jailbreaks) - Comparaison des performances des invites ou des modèles - Création de suites d'évaluation pour RAG, factualité ou sécurité Mots-clés : promptfoo, évaluation llm, tests rapides, équipe rouge, CI/CD, tests de régression Source : phrazzld/claude-config.

Comment installer llm-evaluation ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/phrazzld/claude-config