·llm-evaluation
</>

llm-evaluation

phrazzld/claude-config

Promptfoo を使用した LLM プロンプトのテスト、評価、CI/CD 品質ゲート。 次の場合に呼び出します。 - 即時評価または回帰テストの設定 - LLM テストを CI/CD パイプラインに統合 - セキュリティ テストの構成 (レッド チーム、ジェイルブレイク) - プロンプトまたはモデルのパフォーマンスの比較 - RAG、事実性、または安全性のための評価スイートの構築 キーワード:promptfoo、llm評価、プロンプトテスト、レッドチーム、CI/CD、回帰テスト

9インストール·1トレンド·@phrazzld

インストール

$npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation

SKILL.md

Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.

LLM outputs are non-deterministic. "It looks good" isn't testing. You need:

| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |

Promptfoo を使用した LLM プロンプトのテスト、評価、CI/CD 品質ゲート。 次の場合に呼び出します。 - 即時評価または回帰テストの設定 - LLM テストを CI/CD パイプラインに統合 - セキュリティ テストの構成 (レッド チーム、ジェイルブレイク) - プロンプトまたはモデルのパフォーマンスの比較 - RAG、事実性、または安全性のための評価スイートの構築 キーワード:promptfoo、llm評価、プロンプトテスト、レッドチーム、CI/CD、回帰テスト ソース: phrazzld/claude-config。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-01
更新日
2026-02-18

クイックアンサー

llm-evaluation とは?

Promptfoo を使用した LLM プロンプトのテスト、評価、CI/CD 品質ゲート。 次の場合に呼び出します。 - 即時評価または回帰テストの設定 - LLM テストを CI/CD パイプラインに統合 - セキュリティ テストの構成 (レッド チーム、ジェイルブレイク) - プロンプトまたはモデルのパフォーマンスの比較 - RAG、事実性、または安全性のための評価スイートの構築 キーワード:promptfoo、llm評価、プロンプトテスト、レッドチーム、CI/CD、回帰テスト ソース: phrazzld/claude-config。

llm-evaluation のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/phrazzld/claude-config