agentic-eval
✓用于评估和改进人工智能代理输出的模式和技术。在以下情况下使用此技能: - 实施自我批评和反思循环 - 为质量关键的生成构建评估器优化器管道 - 创建测试驱动的代码优化工作流程 - 设计基于标准或法学硕士作为法官的评估系统 - 为代理输出添加迭代改进(代码、报告、分析) - 衡量和提高座席响应质量
SKILL.md
Patterns for self-improvement through iterative evaluation and refinement.
Evaluation patterns enable agents to assess and improve their own outputs, moving beyond single-shot generation to iterative refinement loops.
Key insight: Use structured JSON output for reliable parsing of critique results.
用于评估和改进人工智能代理输出的模式和技术。在以下情况下使用此技能: - 实施自我批评和反思循环 - 为质量关键的生成构建评估器优化器管道 - 创建测试驱动的代码优化工作流程 - 设计基于标准或法学硕士作为法官的评估系统 - 为代理输出添加迭代改进(代码、报告、分析) - 衡量和提高座席响应质量 来源:github/awesome-copilot。
可引用信息
为搜索与 AI 引用准备的稳定字段与命令。
- 安装命令
npx skills add https://github.com/github/awesome-copilot --skill agentic-eval- 分类
- </>开发工具
- 认证
- ✓
- 收录时间
- 2026-02-01
- 更新时间
- 2026-02-18
快速解答
什么是 agentic-eval?
用于评估和改进人工智能代理输出的模式和技术。在以下情况下使用此技能: - 实施自我批评和反思循环 - 为质量关键的生成构建评估器优化器管道 - 创建测试驱动的代码优化工作流程 - 设计基于标准或法学硕士作为法官的评估系统 - 为代理输出添加迭代改进(代码、报告、分析) - 衡量和提高座席响应质量 来源:github/awesome-copilot。
如何安装 agentic-eval?
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/github/awesome-copilot --skill agentic-eval 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用
这个 Skill 的源码在哪?
https://github.com/github/awesome-copilot
详情
- 分类
- </>开发工具
- 来源
- skills.sh
- 收录时间
- 2026-02-01