·red-teaming
!

red-teaming

사이버 보안과 AI/LLM 시스템 모두를 위한 포괄적인 레드팀 구성 방법론입니다. 적 에뮬레이션, 취약성 평가, 공격 시뮬레이션 또는 보안 검증을 수행할 때 사용합니다. 침투 테스트, 위협 모델링, 보안 감사, MITRE ATT&CK 운영, LLM 안전 테스트, 신속한 주입 공격 또는 규정 준수 검증(OWASP, NIST, TIBER, DORA, EU AI Act)에 대한 요청을 트리거합니다. 사용자가 "공격자처럼 테스트", "시스템 레드팀", "보안 상태 검증", "LLM 취약성 평가" 또는 "사이버 공격 시뮬레이션"을 요청할 때 적용합니다. 계획 프레임워크, 실행 전략, 보고 템플릿, 특수 공격 기술 및 도구에 대한 점진적인 참조가 포함됩니다.

7설치·1트렌드·@rfxlamia

설치

$npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming

red-teaming 설치 방법

명령줄에서 red-teaming AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: rfxlamia/claude-skillkit.

Red teaming is a structured adversarial approach to testing organizational security posture by simulating real-world attacks. This skill provides comprehensive methodology for both traditional cybersecurity red teaming (network, physical, social engineering) and AI/LLM red teaming (prompt injection, jailbreaking, safety testing).

Core Philosophy: Think like an attacker, operate covertly, test holistically, document thoroughly.

| Aspect | Red Teaming | Penetration Testing | Vulnerability Assessment |

사이버 보안과 AI/LLM 시스템 모두를 위한 포괄적인 레드팀 구성 방법론입니다. 적 에뮬레이션, 취약성 평가, 공격 시뮬레이션 또는 보안 검증을 수행할 때 사용합니다. 침투 테스트, 위협 모델링, 보안 감사, MITRE ATT&CK 운영, LLM 안전 테스트, 신속한 주입 공격 또는 규정 준수 검증(OWASP, NIST, TIBER, DORA, EU AI Act)에 대한 요청을 트리거합니다. 사용자가 "공격자처럼 테스트", "시스템 레드팀", "보안 상태 검증", "LLM 취약성 평가" 또는 "사이버 공격 시뮬레이션"을 요청할 때 적용합니다. 계획 프레임워크, 실행 전략, 보고 템플릿, 특수 공격 기술 및 도구에 대한 점진적인 참조가 포함됩니다. 출처: rfxlamia/claude-skillkit.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
카테고리
!보안
인증됨
최초 등록
2026-02-25
업데이트
2026-03-10

Browse more skills from rfxlamia/claude-skillkit

빠른 답변

red-teaming이란?

사이버 보안과 AI/LLM 시스템 모두를 위한 포괄적인 레드팀 구성 방법론입니다. 적 에뮬레이션, 취약성 평가, 공격 시뮬레이션 또는 보안 검증을 수행할 때 사용합니다. 침투 테스트, 위협 모델링, 보안 감사, MITRE ATT&CK 운영, LLM 안전 테스트, 신속한 주입 공격 또는 규정 준수 검증(OWASP, NIST, TIBER, DORA, EU AI Act)에 대한 요청을 트리거합니다. 사용자가 "공격자처럼 테스트", "시스템 레드팀", "보안 상태 검증", "LLM 취약성 평가" 또는 "사이버 공격 시뮬레이션"을 요청할 때 적용합니다. 계획 프레임워크, 실행 전략, 보고 템플릿, 특수 공격 기술 및 도구에 대한 점진적인 참조가 포함됩니다. 출처: rfxlamia/claude-skillkit.

red-teaming 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/rfxlamia/claude-skillkit