llm-evaluation
✓Promptfoo を使用した LLM プロンプトのテスト、評価、CI/CD 品質ゲート。 次の場合に呼び出します。 - 即時評価または回帰テストの設定 - LLM テストを CI/CD パイプラインに統合 - セキュリティ テストの構成 (レッド チーム、ジェイルブレイク) - プロンプトまたはモデルのパフォーマンスの比較 - RAG、事実性、または安全性のための評価スイートの構築 キーワード:promptfoo、llm評価、プロンプトテスト、レッドチーム、CI/CD、回帰テスト
SKILL.md
Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.
LLM outputs are non-deterministic. "It looks good" isn't testing. You need:
| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |
Promptfoo を使用した LLM プロンプトのテスト、評価、CI/CD 品質ゲート。 次の場合に呼び出します。 - 即時評価または回帰テストの設定 - LLM テストを CI/CD パイプラインに統合 - セキュリティ テストの構成 (レッド チーム、ジェイルブレイク) - プロンプトまたはモデルのパフォーマンスの比較 - RAG、事実性、または安全性のための評価スイートの構築 キーワード:promptfoo、llm評価、プロンプトテスト、レッドチーム、CI/CD、回帰テスト ソース: phrazzld/claude-config。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation- カテゴリ
- </>開発ツール
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
llm-evaluation とは?
Promptfoo を使用した LLM プロンプトのテスト、評価、CI/CD 品質ゲート。 次の場合に呼び出します。 - 即時評価または回帰テストの設定 - LLM テストを CI/CD パイプラインに統合 - セキュリティ テストの構成 (レッド チーム、ジェイルブレイク) - プロンプトまたはモデルのパフォーマンスの比較 - RAG、事実性、または安全性のための評価スイートの構築 キーワード:promptfoo、llm評価、プロンプトテスト、レッドチーム、CI/CD、回帰テスト ソース: phrazzld/claude-config。
llm-evaluation のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/phrazzld/claude-config
詳細
- カテゴリ
- </>開発ツール
- ソース
- skills.sh
- 初回登録
- 2026-02-01