Best practice complete per i sistemi di percezione dei robot che coprono telecamere, LiDAR, sensori di profondità, IMU e configurazioni multisensore. Utilizza questa competenza quando lavori con elaborazione di immagini RGB, mappe di profondità, nuvole di punti, calibrazione del sensore (intrinseca, estrinseca, occhio-mano), rilevamento di oggetti, segmentazione semantica, ricostruzione 3D, servovisione visiva o ottimizzazione della pipeline di percezione. Si attiva ogni volta che l'utente menziona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibrazione della fotocamera, AprilTags, marcatori ArUco, visione stereo, RGBD, filtraggio delle nuvole di punti, registrazione ICP, trasformazioni di coordinate, intrinseci della fotocamera, correzione della distorsione, indistorsione dell'immagine, streaming di sensori, sincronizzazione dei fotogrammi o qualsiasi attività di visione artificiale in un contesto di robotica. Copre anche gli impianti multi-camera, la sincronizzazione temporale tra i sensori, i budget per la latenza della percezione e l'implementazione in produzione dei canali di percezione.
Installa rapidamente la skill AI robot-perception nel tuo ambiente di sviluppo tramite riga di comando
Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw
Best practice complete per i sistemi di percezione dei robot che coprono telecamere, LiDAR, sensori di profondità, IMU e configurazioni multisensore. Utilizza questa competenza quando lavori con elaborazione di immagini RGB, mappe di profondità, nuvole di punti, calibrazione del sensore (intrinseca, estrinseca, occhio-mano), rilevamento di oggetti, segmentazione semantica, ricostruzione 3D, servovisione visiva o ottimizzazione della pipeline di percezione. Si attiva ogni volta che l'utente menziona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibrazione della fotocamera, AprilTags, marcatori ArUco, visione stereo, RGBD, filtraggio delle nuvole di punti, registrazione ICP, trasformazioni di coordinate, intrinseci della fotocamera, correzione della distorsione, indistorsione dell'immagine, streaming di sensori, sincronizzazione dei fotogrammi o qualsiasi attività di visione artificiale in un contesto di robotica. Copre anche gli impianti multi-camera, la sincronizzazione temporale tra i sensori, i budget per la latenza della percezione e l'implementazione in produzione dei canali di percezione. Fonte: arpitg1304/robotics-agent-skills.
Best practice complete per i sistemi di percezione dei robot che coprono telecamere, LiDAR, sensori di profondità, IMU e configurazioni multisensore. Utilizza questa competenza quando lavori con elaborazione di immagini RGB, mappe di profondità, nuvole di punti, calibrazione del sensore (intrinseca, estrinseca, occhio-mano), rilevamento di oggetti, segmentazione semantica, ricostruzione 3D, servovisione visiva o ottimizzazione della pipeline di percezione. Si attiva ogni volta che l'utente menziona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibrazione della fotocamera, AprilTags, marcatori ArUco, visione stereo, RGBD, filtraggio delle nuvole di punti, registrazione ICP, trasformazioni di coordinate, intrinseci della fotocamera, correzione della distorsione, indistorsione dell'immagine, streaming di sensori, sincronizzazione dei fotogrammi o qualsiasi attività di visione artificiale in un contesto di robotica. Copre anche gli impianti multi-camera, la sincronizzazione temporale tra i sensori, i budget per la latenza della percezione e l'implementazione in produzione dei canali di percezione. Fonte: arpitg1304/robotics-agent-skills.
Come installo robot-perception?
Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw