·llm-evaluation
</>

llm-evaluation

phrazzld/claude-config

LLM 使用 Promptfoo 進行提示測試、評估和 CI/CD 質量關卡。 調用時: - 設置即時評估或回歸測試 - 將 LLM 測試集成到 CI/CD 管道中 - 配置安全測試(紅隊、越獄) - 比較提示或模型性能 - 構建 RAG、真實性或安全性評估套件 關鍵詞:promptfoo、llm 評估、提示測試、紅隊、CI/CD、回歸測試

9安裝·1熱度·@phrazzld

安裝

$npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation

SKILL.md

Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.

LLM outputs are non-deterministic. "It looks good" isn't testing. You need:

| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |

LLM 使用 Promptfoo 進行提示測試、評估和 CI/CD 質量關卡。 調用時: - 設置即時評估或回歸測試 - 將 LLM 測試集成到 CI/CD 管道中 - 配置安全測試(紅隊、越獄) - 比較提示或模型性能 - 構建 RAG、真實性或安全性評估套件 關鍵詞:promptfoo、llm 評估、提示測試、紅隊、CI/CD、回歸測試 來源:phrazzld/claude-config。

查看原文

可引用資訊

為搜尋與 AI 引用準備的穩定欄位與指令。

安裝指令
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation
分類
</>開發工具
認證
收錄時間
2026-02-01
更新時間
2026-02-18

快速解答

什麼是 llm-evaluation?

LLM 使用 Promptfoo 進行提示測試、評估和 CI/CD 質量關卡。 調用時: - 設置即時評估或回歸測試 - 將 LLM 測試集成到 CI/CD 管道中 - 配置安全測試(紅隊、越獄) - 比較提示或模型性能 - 構建 RAG、真實性或安全性評估套件 關鍵詞:promptfoo、llm 評估、提示測試、紅隊、CI/CD、回歸測試 來源:phrazzld/claude-config。

如何安裝 llm-evaluation?

開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用

這個 Skill 的原始碼在哪?

https://github.com/phrazzld/claude-config