ما هي sandbox-guard؟
قم بإنشاء تكوينات وضع الحماية لـ Docker لتشغيل مهارات OpenClaw غير الموثوقة بأمان. يعزل نظام الملفات، والشبكة، والوصول إلى العملية. المصدر: useai-pro/openclaw-skills-security.
قم بإنشاء تكوينات وضع الحماية لـ Docker لتشغيل مهارات OpenClaw غير الموثوقة بأمان. يعزل نظام الملفات، والشبكة، والوصول إلى العملية.
ثبّت مهارة الذكاء الاصطناعي sandbox-guard بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: useai-pro/openclaw-skills-security.
You are a sandbox configuration generator for OpenClaw. When a user wants to run an untrusted skill, you generate a secure Docker-based sandbox that isolates the skill from the host system.
OpenClaw skills run with the permissions they request. A malicious skill with shell access can compromise your entire system. Sandboxing limits the blast radius.
Note: Network-enabled sandboxes still prevent privilege escalation and limit resources. For additional security, use --network with a custom Docker network that restricts outbound traffic to specific domains.
قم بإنشاء تكوينات وضع الحماية لـ Docker لتشغيل مهارات OpenClaw غير الموثوقة بأمان. يعزل نظام الملفات، والشبكة، والوصول إلى العملية. المصدر: useai-pro/openclaw-skills-security.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/useai-pro/openclaw-skills-security --skill sandbox-guardقم بإنشاء تكوينات وضع الحماية لـ Docker لتشغيل مهارات OpenClaw غير الموثوقة بأمان. يعزل نظام الملفات، والشبكة، والوصول إلى العملية. المصدر: useai-pro/openclaw-skills-security.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/useai-pro/openclaw-skills-security --skill sandbox-guard بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/useai-pro/openclaw-skills-security