·red-teaming
!

red-teaming

サイバーセキュリティと AI/LLM システムの両方に対する包括的なレッド チーム手法。敵対者のエミュレーション、脆弱性評価、攻撃シミュレーション、またはセキュリティ検証を実行するときに使用します。侵入テスト、脅威モデリング、セキュリティ監査、MITRE ATT&CK 操作、LLM 安全性テスト、プロンプト インジェクション攻撃、またはコンプライアンス検証 (OWASP、NIST、TIBER、DORA、EU AI 法) のリクエストをトリガーします。ユーザーが「攻撃者のようにテストする」、「システムをレッドチームにする」、「セキュリティ体制を検証する」、「LLM の脆弱性を評価する」、または「サイバー攻撃をシミュレートする」を要求する場合に適用します。計画フレームワーク、実行戦略、レポート テンプレート、特殊な攻撃手法とツールへの漸進的なリファレンスが含まれます。

7インストール·1トレンド·@rfxlamia

インストール

$npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming

red-teaming のインストール方法

コマンドラインで red-teaming AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: rfxlamia/claude-skillkit。

Red teaming is a structured adversarial approach to testing organizational security posture by simulating real-world attacks. This skill provides comprehensive methodology for both traditional cybersecurity red teaming (network, physical, social engineering) and AI/LLM red teaming (prompt injection, jailbreaking, safety testing).

Core Philosophy: Think like an attacker, operate covertly, test holistically, document thoroughly.

| Aspect | Red Teaming | Penetration Testing | Vulnerability Assessment |

サイバーセキュリティと AI/LLM システムの両方に対する包括的なレッド チーム手法。敵対者のエミュレーション、脆弱性評価、攻撃シミュレーション、またはセキュリティ検証を実行するときに使用します。侵入テスト、脅威モデリング、セキュリティ監査、MITRE ATT&CK 操作、LLM 安全性テスト、プロンプト インジェクション攻撃、またはコンプライアンス検証 (OWASP、NIST、TIBER、DORA、EU AI 法) のリクエストをトリガーします。ユーザーが「攻撃者のようにテストする」、「システムをレッドチームにする」、「セキュリティ体制を検証する」、「LLM の脆弱性を評価する」、または「サイバー攻撃をシミュレートする」を要求する場合に適用します。計画フレームワーク、実行戦略、レポート テンプレート、特殊な攻撃手法とツールへの漸進的なリファレンスが含まれます。 ソース: rfxlamia/claude-skillkit。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming
カテゴリ
!セキュリティ
認証済み
初回登録
2026-02-25
更新日
2026-03-10

Browse more skills from rfxlamia/claude-skillkit

クイックアンサー

red-teaming とは?

サイバーセキュリティと AI/LLM システムの両方に対する包括的なレッド チーム手法。敵対者のエミュレーション、脆弱性評価、攻撃シミュレーション、またはセキュリティ検証を実行するときに使用します。侵入テスト、脅威モデリング、セキュリティ監査、MITRE ATT&CK 操作、LLM 安全性テスト、プロンプト インジェクション攻撃、またはコンプライアンス検証 (OWASP、NIST、TIBER、DORA、EU AI 法) のリクエストをトリガーします。ユーザーが「攻撃者のようにテストする」、「システムをレッドチームにする」、「セキュリティ体制を検証する」、「LLM の脆弱性を評価する」、または「サイバー攻撃をシミュレートする」を要求する場合に適用します。計画フレームワーク、実行戦略、レポート テンプレート、特殊な攻撃手法とツールへの漸進的なリファレンスが含まれます。 ソース: rfxlamia/claude-skillkit。

red-teaming のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/rfxlamia/claude-skillkit --skill red-teaming インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/rfxlamia/claude-skillkit