·eval-audit
{}

eval-audit

LLM 評価パイプラインを監査し、エラー分析の欠落、検証されていないジャッジ、バニティ メトリクスなどの問題を表面化します。評価システムを継承するとき、評価が信頼できるかどうか不明な場合、または評価インフラストラクチャが存在しない場合の開始点として使用します。新しいエバリュエーターを最初から構築することが目的の場合は使用しないでください (代わりに、error-analysis、write-judge-prompt、または validate-evaluator を使用してください)。

81インストール·3トレンド·@hamelsmu

インストール

$npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit

eval-audit のインストール方法

コマンドラインで eval-audit AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: hamelsmu/evals-skills。

Inspect an LLM eval pipeline and produce a prioritized list of problems with concrete next steps.

Access to eval artifacts (traces, evaluator configs, judge prompts, labeled data) via an observability MCP server or local files. If none exist, skip to "No Eval Infrastructure."

Check whether the user has an observability MCP server connected (Phoenix, Braintrust, LangSmith, Truesight or similar). If available, use it to pull traces, evaluator definitions, and experiment results. If not, ask for local files: CSVs, JSON trace exports, notebooks, or evaluation scripts.

LLM 評価パイプラインを監査し、エラー分析の欠落、検証されていないジャッジ、バニティ メトリクスなどの問題を表面化します。評価システムを継承するとき、評価が信頼できるかどうか不明な場合、または評価インフラストラクチャが存在しない場合の開始点として使用します。新しいエバリュエーターを最初から構築することが目的の場合は使用しないでください (代わりに、error-analysis、write-judge-prompt、または validate-evaluator を使用してください)。 ソース: hamelsmu/evals-skills。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit
カテゴリ
{}データ分析
認証済み
初回登録
2026-03-04
更新日
2026-03-10

Browse more skills from hamelsmu/evals-skills

クイックアンサー

eval-audit とは?

LLM 評価パイプラインを監査し、エラー分析の欠落、検証されていないジャッジ、バニティ メトリクスなどの問題を表面化します。評価システムを継承するとき、評価が信頼できるかどうか不明な場合、または評価インフラストラクチャが存在しない場合の開始点として使用します。新しいエバリュエーターを最初から構築することが目的の場合は使用しないでください (代わりに、error-analysis、write-judge-prompt、または validate-evaluator を使用してください)。 ソース: hamelsmu/evals-skills。

eval-audit のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/hamelsmu/evals-skills --skill eval-audit インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/hamelsmu/evals-skills