ai-threat-testing
✓进攻性人工智能安全测试和利用框架。系统地测试 LLM 应用程序的 OWASP Top 10 漏洞,包括提示注入、模型提取、数据中毒和供应链攻击。与渗透测试工作流程集成,以发现和利用特定于 AI 的威胁。
SKILL.md
This skill orchestrates comprehensive AI threat testing across LLM applications and systems. Use this to perform authorized penetration testing of AI systems, discover vulnerabilities, and document findings with proof-of-concept exploits.
Agent 1: Prompt Injection Testing Tests: LLM01 - Direct and indirect prompt injection
Agent 2: Output Handling Exploitation Tests: LLM02 - Insecure output handling
进攻性人工智能安全测试和利用框架。系统地测试 LLM 应用程序的 OWASP Top 10 漏洞,包括提示注入、模型提取、数据中毒和供应链攻击。与渗透测试工作流程集成,以发现和利用特定于 AI 的威胁。 来源:transilienceai/communitytools。
可引用信息
为搜索与 AI 引用准备的稳定字段与命令。
- 安装命令
npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing- 分类
- !安全工具
- 认证
- ✓
- 收录时间
- 2026-02-05
- 更新时间
- 2026-02-18
快速解答
什么是 ai-threat-testing?
进攻性人工智能安全测试和利用框架。系统地测试 LLM 应用程序的 OWASP Top 10 漏洞,包括提示注入、模型提取、数据中毒和供应链攻击。与渗透测试工作流程集成,以发现和利用特定于 AI 的威胁。 来源:transilienceai/communitytools。
如何安装 ai-threat-testing?
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/transilienceai/communitytools --skill ai-threat-testing 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用
这个 Skill 的源码在哪?
https://github.com/transilienceai/communitytools