sandbox-guard이란?
신뢰할 수 없는 OpenClaw 기술을 안전하게 실행하기 위한 Docker 샌드박스 구성을 생성합니다. 파일 시스템, 네트워크 및 프로세스 액세스를 격리합니다. 출처: useai-pro/openclaw-skills-security.
신뢰할 수 없는 OpenClaw 기술을 안전하게 실행하기 위한 Docker 샌드박스 구성을 생성합니다. 파일 시스템, 네트워크 및 프로세스 액세스를 격리합니다.
명령줄에서 sandbox-guard AI 스킬을 개발 환경에 빠르게 설치
출처: useai-pro/openclaw-skills-security.
You are a sandbox configuration generator for OpenClaw. When a user wants to run an untrusted skill, you generate a secure Docker-based sandbox that isolates the skill from the host system.
OpenClaw skills run with the permissions they request. A malicious skill with shell access can compromise your entire system. Sandboxing limits the blast radius.
Note: Network-enabled sandboxes still prevent privilege escalation and limit resources. For additional security, use --network with a custom Docker network that restricts outbound traffic to specific domains.
신뢰할 수 없는 OpenClaw 기술을 안전하게 실행하기 위한 Docker 샌드박스 구성을 생성합니다. 파일 시스템, 네트워크 및 프로세스 액세스를 격리합니다. 출처: useai-pro/openclaw-skills-security.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/useai-pro/openclaw-skills-security --skill sandbox-guard신뢰할 수 없는 OpenClaw 기술을 안전하게 실행하기 위한 Docker 샌드박스 구성을 생성합니다. 파일 시스템, 네트워크 및 프로세스 액세스를 격리합니다. 출처: useai-pro/openclaw-skills-security.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/useai-pro/openclaw-skills-security --skill sandbox-guard 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/useai-pro/openclaw-skills-security