promptfoo-evaluation
✓Promptfoo フレームワークを使用して LLM 評価を構成および実行します。プロンプト テストの設定、評価構成 (promptfooconfig.yaml) の作成、Python カスタム アサーションの作成、LLM-as-judge の llm-rubric の実装、またはプロンプトでの少数ショットのサンプルの管理を行う場合に使用します。 「promptfoo」、「eval」、「LLM 評価」、「プロンプト テスト」、「モデル比較」などのキーワードでトリガーされます。
SKILL.md
This skill provides guidance for configuring and running LLM evaluations using Promptfoo, an open-source CLI tool for testing and comparing LLM outputs.
Embed examples directly in prompt or use chat format with assistant messages:
Create a Python file for custom assertions (e.g., scripts/metrics.py):
Promptfoo フレームワークを使用して LLM 評価を構成および実行します。プロンプト テストの設定、評価構成 (promptfooconfig.yaml) の作成、Python カスタム アサーションの作成、LLM-as-judge の llm-rubric の実装、またはプロンプトでの少数ショットのサンプルの管理を行う場合に使用します。 「promptfoo」、「eval」、「LLM 評価」、「プロンプト テスト」、「モデル比較」などのキーワードでトリガーされます。 ソース: daymade/claude-code-skills。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
promptfoo-evaluation とは?
Promptfoo フレームワークを使用して LLM 評価を構成および実行します。プロンプト テストの設定、評価構成 (promptfooconfig.yaml) の作成、Python カスタム アサーションの作成、LLM-as-judge の llm-rubric の実装、またはプロンプトでの少数ショットのサンプルの管理を行う場合に使用します。 「promptfoo」、「eval」、「LLM 評価」、「プロンプト テスト」、「モデル比較」などのキーワードでトリガーされます。 ソース: daymade/claude-code-skills。
promptfoo-evaluation のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/daymade/claude-code-skills --skill promptfoo-evaluation インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/daymade/claude-code-skills
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01