Red teaming is a structured adversarial approach to testing organizational security posture by simulating real-world attacks. This skill provides comprehensive methodology for both traditional cybersecurity red teaming (network, physical, social engineering) and AI/LLM red teaming (prompt injection, jailbreaking, safety testing).
Core Philosophy: Think like an attacker, operate covertly, test holistically, document thoroughly.
| Aspect | Red Teaming | Penetration Testing | Vulnerability Assessment |
사이버 보안과 AI/LLM 시스템 모두를 위한 포괄적인 레드팀 구성 방법론입니다. 적 에뮬레이션, 취약성 평가, 공격 시뮬레이션 또는 보안 검증을 수행할 때 사용합니다. 침투 테스트, 위협 모델링, 보안 감사, MITRE ATT&CK 운영, LLM 안전 테스트, 신속한 주입 공격 또는 규정 준수 검증(OWASP, NIST, TIBER, DORA, EU AI Act)에 대한 요청을 트리거합니다. 사용자가 "공격자처럼 테스트", "시스템 레드팀", "보안 상태 검증", "LLM 취약성 평가" 또는 "사이버 공격 시뮬레이션"을 요청할 때 적용합니다. 계획 프레임워크, 실행 전략, 보고 템플릿, 특수 공격 기술 및 도구에 대한 점진적인 참조가 포함됩니다. 출처: rfxlamia/claude-skillkit.