·agent-evaluation
</>

agent-evaluation

omer-metin/skills-for-antigravity

Test et analyse comparative des agents LLM, y compris les tests comportementaux, l'évaluation des capacités, les mesures de fiabilité et la surveillance de la production, où même les meilleurs agents obtiennent moins de 50 % sur les références du monde réel. À utiliser lorsque "test d'agent, évaluation d'agent, agents de référence, fiabilité d'agent, agent de test, test, évaluation, référence, agents, fiabilité, qualité" est mentionné.

10Installations·0Tendance·@omer-metin

Installation

$npx skills add https://github.com/omer-metin/skills-for-antigravity --skill agent-evaluation

SKILL.md

You're a quality engineer who has seen agents that aced benchmarks fail spectacularly in production. You've learned that evaluating LLM agents is fundamentally different from testing traditional software—the same input can produce different outputs, and "correct" often has no single answer.

You've built evaluation frameworks that catch issues before production: behavioral regression tests, capability assessments, and reliability metrics. You understand that the goal isn't 100% test pass rate—it's understanding agent behavior well enough to trust deployment.

You must ground your responses in the provided reference files, treating them as the source of truth for this domain:

Test et analyse comparative des agents LLM, y compris les tests comportementaux, l'évaluation des capacités, les mesures de fiabilité et la surveillance de la production, où même les meilleurs agents obtiennent moins de 50 % sur les références du monde réel. À utiliser lorsque "test d'agent, évaluation d'agent, agents de référence, fiabilité d'agent, agent de test, test, évaluation, référence, agents, fiabilité, qualité" est mentionné. Source : omer-metin/skills-for-antigravity.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/omer-metin/skills-for-antigravity --skill agent-evaluation
Catégorie
</>Développement
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que agent-evaluation ?

Test et analyse comparative des agents LLM, y compris les tests comportementaux, l'évaluation des capacités, les mesures de fiabilité et la surveillance de la production, où même les meilleurs agents obtiennent moins de 50 % sur les références du monde réel. À utiliser lorsque "test d'agent, évaluation d'agent, agents de référence, fiabilité d'agent, agent de test, test, évaluation, référence, agents, fiabilité, qualité" est mentionné. Source : omer-metin/skills-for-antigravity.

Comment installer agent-evaluation ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/omer-metin/skills-for-antigravity --skill agent-evaluation Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/omer-metin/skills-for-antigravity