什麼是 advanced-evaluation?
當使用者要求「實施LLM作為法官」、「比較模型輸出」、「創建評估標準」、「減輕評估偏差」或提到直接評分、成對比較、位置偏差、評估流程或自動品質評估時,應使用此技能。 來源:chakshugautam/games。
當使用者要求「實施LLM作為法官」、「比較模型輸出」、「創建評估標準」、「減輕評估偏差」或提到直接評分、成對比較、位置偏差、評估流程或自動品質評估時,應使用此技能。
透過命令列快速安裝 advanced-evaluation AI 技能到你的開發環境
來源:chakshugautam/games。
This skill covers production-grade techniques for evaluating LLM outputs using LLMs as judges. It synthesizes research from academic papers, industry practices, and practical implementation experience into actionable patterns for building reliable evaluation systems.
Key insight: LLM-as-a-Judge is not a single technique but a family of approaches, each suited to different evaluation contexts. Choosing the right approach and mitigating known biases is the core competency this skill develops.
Evaluation approaches fall into two primary categories with distinct reliability profiles:
當使用者要求「實施LLM作為法官」、「比較模型輸出」、「創建評估標準」、「減輕評估偏差」或提到直接評分、成對比較、位置偏差、評估流程或自動品質評估時,應使用此技能。 來源:chakshugautam/games。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation當使用者要求「實施LLM作為法官」、「比較模型輸出」、「創建評估標準」、「減輕評估偏差」或提到直接評分、成對比較、位置偏差、評估流程或自動品質評估時,應使用此技能。 來源:chakshugautam/games。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/chakshugautam/games