agentic-eval
✓AI エージェントの出力を評価および改善するためのパターンと手法。このスキルは次の場合に使用します。 - 自己批判と反省のループを実装する - 品質が重要な生成のための評価者と最適化者のパイプラインを構築する - テスト駆動のコード改良ワークフローの作成 - ルーブリックベースまたは LLM を使った審査員評価システムの設計 - エージェントの出力 (コード、レポート、分析) に反復的な改善を追加します。 - エージェントの応答品質の測定と改善
SKILL.md
Patterns for self-improvement through iterative evaluation and refinement.
Evaluation patterns enable agents to assess and improve their own outputs, moving beyond single-shot generation to iterative refinement loops.
Key insight: Use structured JSON output for reliable parsing of critique results.
AI エージェントの出力を評価および改善するためのパターンと手法。このスキルは次の場合に使用します。 - 自己批判と反省のループを実装する - 品質が重要な生成のための評価者と最適化者のパイプラインを構築する - テスト駆動のコード改良ワークフローの作成 - ルーブリックベースまたは LLM を使った審査員評価システムの設計 - エージェントの出力 (コード、レポート、分析) に反復的な改善を追加します。 - エージェントの応答品質の測定と改善 ソース: github/awesome-copilot。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/github/awesome-copilot --skill agentic-eval- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
agentic-eval とは?
AI エージェントの出力を評価および改善するためのパターンと手法。このスキルは次の場合に使用します。 - 自己批判と反省のループを実装する - 品質が重要な生成のための評価者と最適化者のパイプラインを構築する - テスト駆動のコード改良ワークフローの作成 - ルーブリックベースまたは LLM を使った審査員評価システムの設計 - エージェントの出力 (コード、レポート、分析) に反復的な改善を追加します。 - エージェントの応答品質の測定と改善 ソース: github/awesome-copilot。
agentic-eval のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/github/awesome-copilot --skill agentic-eval インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/github/awesome-copilot
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01