·robot-perception
</>

robot-perception

Mejores prácticas integrales para sistemas de percepción de robots que cubren cámaras, LiDAR, sensores de profundidad, IMU y configuraciones de múltiples sensores. Utilice esta habilidad cuando trabaje con procesamiento de imágenes RGB, mapas de profundidad, nubes de puntos, calibración de sensores (intrínseco, extrínseco, ojo-mano), detección de objetos, segmentación semántica, reconstrucción 3D, servovisión visual u optimización del canal de percepción. Se activa cada vez que el usuario menciona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibración de cámara, AprilTags, marcadores ArUco, visión estéreo, RGBD, filtrado de nube de puntos, registro ICP, transformaciones de coordenadas, intrínsecos de cámara, corrección de distorsión, no distorsión de imagen, transmisión de sensores, sincronización de cuadros o cualquier tarea de visión por computadora en un contexto robótico. También cubre plataformas multicámara, sincronización de tiempo entre sensores, presupuestos de latencia de percepción y despliegue de producción de canales de percepción.

9Instalaciones·1Tendencia·@arpitg1304

Instalación

$npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception

Cómo instalar robot-perception

Instala rápidamente el skill de IA robot-perception en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: arpitg1304/robotics-agent-skills.

SKILL.md

Ver original

Mejores prácticas integrales para sistemas de percepción de robots que cubren cámaras, LiDAR, sensores de profundidad, IMU y configuraciones de múltiples sensores. Utilice esta habilidad cuando trabaje con procesamiento de imágenes RGB, mapas de profundidad, nubes de puntos, calibración de sensores (intrínseco, extrínseco, ojo-mano), detección de objetos, segmentación semántica, reconstrucción 3D, servovisión visual u optimización del canal de percepción. Se activa cada vez que el usuario menciona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibración de cámara, AprilTags, marcadores ArUco, visión estéreo, RGBD, filtrado de nube de puntos, registro ICP, transformaciones de coordenadas, intrínsecos de cámara, corrección de distorsión, no distorsión de imagen, transmisión de sensores, sincronización de cuadros o cualquier tarea de visión por computadora en un contexto robótico. También cubre plataformas multicámara, sincronización de tiempo entre sensores, presupuestos de latencia de percepción y despliegue de producción de canales de percepción. Fuente: arpitg1304/robotics-agent-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-03-10
Actualizado
2026-03-10

Browse more skills from arpitg1304/robotics-agent-skills

Respuestas rápidas

¿Qué es robot-perception?

Mejores prácticas integrales para sistemas de percepción de robots que cubren cámaras, LiDAR, sensores de profundidad, IMU y configuraciones de múltiples sensores. Utilice esta habilidad cuando trabaje con procesamiento de imágenes RGB, mapas de profundidad, nubes de puntos, calibración de sensores (intrínseco, extrínseco, ojo-mano), detección de objetos, segmentación semántica, reconstrucción 3D, servovisión visual u optimización del canal de percepción. Se activa cada vez que el usuario menciona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibración de cámara, AprilTags, marcadores ArUco, visión estéreo, RGBD, filtrado de nube de puntos, registro ICP, transformaciones de coordenadas, intrínsecos de cámara, corrección de distorsión, no distorsión de imagen, transmisión de sensores, sincronización de cuadros o cualquier tarea de visión por computadora en un contexto robótico. También cubre plataformas multicámara, sincronización de tiempo entre sensores, presupuestos de latencia de percepción y despliegue de producción de canales de percepción. Fuente: arpitg1304/robotics-agent-skills.

¿Cómo instalo robot-perception?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/arpitg1304/robotics-agent-skills

Detalles

Categoría
</>Desarrollo
Fuente
skills.sh
Primera vez visto
2026-03-10

Skills Relacionados

Ninguno