llm-evaluation
✓LLM 使用 Promptfoo 進行提示測試、評估和 CI/CD 質量關卡。 調用時: - 設置即時評估或回歸測試 - 將 LLM 測試集成到 CI/CD 管道中 - 配置安全測試(紅隊、越獄) - 比較提示或模型性能 - 構建 RAG、真實性或安全性評估套件 關鍵詞:promptfoo、llm 評估、提示測試、紅隊、CI/CD、回歸測試
SKILL.md
Test prompts, models, and RAG systems with automated evaluation and CI/CD integration.
LLM outputs are non-deterministic. "It looks good" isn't testing. You need:
| Functional | Does it work? | contains, equals, is-json | | Semantic | Is it correct? | similar, llm-rubric, factuality | | Performance | Is it fast/cheap? | cost, latency | | Security | Is it safe? | redteam, moderation, pii-detection |
LLM 使用 Promptfoo 進行提示測試、評估和 CI/CD 質量關卡。 調用時: - 設置即時評估或回歸測試 - 將 LLM 測試集成到 CI/CD 管道中 - 配置安全測試(紅隊、越獄) - 比較提示或模型性能 - 構建 RAG、真實性或安全性評估套件 關鍵詞:promptfoo、llm 評估、提示測試、紅隊、CI/CD、回歸測試 來源:phrazzld/claude-config。
可引用資訊
為搜尋與 AI 引用準備的穩定欄位與指令。
- 安裝指令
npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation- 分類
- </>開發工具
- 認證
- ✓
- 收錄時間
- 2026-02-01
- 更新時間
- 2026-02-18
快速解答
什麼是 llm-evaluation?
LLM 使用 Promptfoo 進行提示測試、評估和 CI/CD 質量關卡。 調用時: - 設置即時評估或回歸測試 - 將 LLM 測試集成到 CI/CD 管道中 - 配置安全測試(紅隊、越獄) - 比較提示或模型性能 - 構建 RAG、真實性或安全性評估套件 關鍵詞:promptfoo、llm 評估、提示測試、紅隊、CI/CD、回歸測試 來源:phrazzld/claude-config。
如何安裝 llm-evaluation?
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/phrazzld/claude-config --skill llm-evaluation 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用
這個 Skill 的原始碼在哪?
https://github.com/phrazzld/claude-config
詳情
- 分類
- </>開發工具
- 來源
- skills.sh
- 收錄時間
- 2026-02-01