Qu'est-ce que deepeval ?
À utiliser lorsque vous discutez ou travaillez avec DeepEval (le cadre d'évaluation de Python AI) Source : sammcj/agentic-coding.
À utiliser lorsque vous discutez ou travaillez avec DeepEval (le cadre d'évaluation de Python AI)
Installez rapidement le skill IA deepeval dans votre environnement de développement via la ligne de commande
Source : sammcj/agentic-coding.
DeepEval is a pytest-based framework for testing LLM applications. It provides 50+ evaluation metrics covering RAG pipelines, conversational AI, agents, safety, and custom criteria. DeepEval integrates into development workflows through pytest, supports multiple LLM providers, and includes component-level tracing with the @observe decorator.
Repository: https://github.com/confident-ai/deepeval Documentation: https://deepeval.com
See references/custommetrics.md for complete guide on creating custom metrics with BaseMetric subclassing and deterministic scorers (ROUGE, BLEU, BERTScore).
À utiliser lorsque vous discutez ou travaillez avec DeepEval (le cadre d'évaluation de Python AI) Source : sammcj/agentic-coding.
Champs et commandes stables pour les citations IA/recherche.
npx skills add https://github.com/sammcj/agentic-coding --skill deepevalÀ utiliser lorsque vous discutez ou travaillez avec DeepEval (le cadre d'évaluation de Python AI) Source : sammcj/agentic-coding.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/sammcj/agentic-coding --skill deepeval Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw
https://github.com/sammcj/agentic-coding