·agentic-eval
</>

agentic-eval

github/awesome-copilot

Muster und Techniken zur Bewertung und Verbesserung der Ergebnisse von KI-Agenten. Verwenden Sie diese Fähigkeit, wenn: - Implementierung von Selbstkritik- und Reflexionsschleifen - Aufbau von Evaluator-Optimierer-Pipelines für qualitätskritische Erzeugung - Erstellen testgesteuerter Code-Verfeinerungs-Workflows - Entwerfen von Bewertungssystemen auf der Grundlage von Rubriken oder LLM-als-Richter-Bewertungen - Hinzufügen iterativer Verbesserungen zu Agentenausgaben (Code, Berichte, Analyse) - Messung und Verbesserung der Antwortqualität der Agenten

201Installationen·9Trend·@github

Installation

$npx skills add https://github.com/github/awesome-copilot --skill agentic-eval

SKILL.md

Patterns for self-improvement through iterative evaluation and refinement.

Evaluation patterns enable agents to assess and improve their own outputs, moving beyond single-shot generation to iterative refinement loops.

Key insight: Use structured JSON output for reliable parsing of critique results.

Muster und Techniken zur Bewertung und Verbesserung der Ergebnisse von KI-Agenten. Verwenden Sie diese Fähigkeit, wenn: - Implementierung von Selbstkritik- und Reflexionsschleifen - Aufbau von Evaluator-Optimierer-Pipelines für qualitätskritische Erzeugung - Erstellen testgesteuerter Code-Verfeinerungs-Workflows - Entwerfen von Bewertungssystemen auf der Grundlage von Rubriken oder LLM-als-Richter-Bewertungen - Hinzufügen iterativer Verbesserungen zu Agentenausgaben (Code, Berichte, Analyse) - Messung und Verbesserung der Antwortqualität der Agenten Quelle: github/awesome-copilot.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/github/awesome-copilot --skill agentic-eval
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist agentic-eval?

Muster und Techniken zur Bewertung und Verbesserung der Ergebnisse von KI-Agenten. Verwenden Sie diese Fähigkeit, wenn: - Implementierung von Selbstkritik- und Reflexionsschleifen - Aufbau von Evaluator-Optimierer-Pipelines für qualitätskritische Erzeugung - Erstellen testgesteuerter Code-Verfeinerungs-Workflows - Entwerfen von Bewertungssystemen auf der Grundlage von Rubriken oder LLM-als-Richter-Bewertungen - Hinzufügen iterativer Verbesserungen zu Agentenausgaben (Code, Berichte, Analyse) - Messung und Verbesserung der Antwortqualität der Agenten Quelle: github/awesome-copilot.

Wie installiere ich agentic-eval?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/github/awesome-copilot --skill agentic-eval Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/github/awesome-copilot