advanced-evaluation とは?
このスキルは、ユーザーが「LLM-as-judge の実装」、「モデル出力の比較」、「評価ルーブリックの作成」、「評価バイアスの軽減」を要求する場合、または直接スコアリング、ペアごとの比較、位置バイアス、評価パイプライン、または自動品質評価に言及する場合に使用する必要があります。 ソース: chakshugautam/games。
このスキルは、ユーザーが「LLM-as-judge の実装」、「モデル出力の比較」、「評価ルーブリックの作成」、「評価バイアスの軽減」を要求する場合、または直接スコアリング、ペアごとの比較、位置バイアス、評価パイプライン、または自動品質評価に言及する場合に使用する必要があります。
コマンドラインで advanced-evaluation AI スキルを開発環境にすばやくインストール
ソース: chakshugautam/games。
This skill covers production-grade techniques for evaluating LLM outputs using LLMs as judges. It synthesizes research from academic papers, industry practices, and practical implementation experience into actionable patterns for building reliable evaluation systems.
Key insight: LLM-as-a-Judge is not a single technique but a family of approaches, each suited to different evaluation contexts. Choosing the right approach and mitigating known biases is the core competency this skill develops.
Evaluation approaches fall into two primary categories with distinct reliability profiles:
このスキルは、ユーザーが「LLM-as-judge の実装」、「モデル出力の比較」、「評価ルーブリックの作成」、「評価バイアスの軽減」を要求する場合、または直接スコアリング、ペアごとの比較、位置バイアス、評価パイプライン、または自動品質評価に言及する場合に使用する必要があります。 ソース: chakshugautam/games。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/chakshugautam/games --skill advanced-evaluationこのスキルは、ユーザーが「LLM-as-judge の実装」、「モデル出力の比較」、「評価ルーブリックの作成」、「評価バイアスの軽減」を要求する場合、または直接スコアリング、ペアごとの比較、位置バイアス、評価パイプライン、または自動品質評価に言及する場合に使用する必要があります。 ソース: chakshugautam/games。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/chakshugautam/games --skill advanced-evaluation インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/chakshugautam/games