·robot-perception
</>

robot-perception

Best practice complete per i sistemi di percezione dei robot che coprono telecamere, LiDAR, sensori di profondità, IMU e configurazioni multisensore. Utilizza questa competenza quando lavori con elaborazione di immagini RGB, mappe di profondità, nuvole di punti, calibrazione del sensore (intrinseca, estrinseca, occhio-mano), rilevamento di oggetti, segmentazione semantica, ricostruzione 3D, servovisione visiva o ottimizzazione della pipeline di percezione. Si attiva ogni volta che l'utente menziona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibrazione della fotocamera, AprilTags, marcatori ArUco, visione stereo, RGBD, filtraggio delle nuvole di punti, registrazione ICP, trasformazioni di coordinate, intrinseci della fotocamera, correzione della distorsione, indistorsione dell'immagine, streaming di sensori, sincronizzazione dei fotogrammi o qualsiasi attività di visione artificiale in un contesto di robotica. Copre anche gli impianti multi-camera, la sincronizzazione temporale tra i sensori, i budget per la latenza della percezione e l'implementazione in produzione dei canali di percezione.

10Installazioni·2Tendenza·@arpitg1304

Installazione

$npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception

Come installare robot-perception

Installa rapidamente la skill AI robot-perception nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: arpitg1304/robotics-agent-skills.

Best practice complete per i sistemi di percezione dei robot che coprono telecamere, LiDAR, sensori di profondità, IMU e configurazioni multisensore. Utilizza questa competenza quando lavori con elaborazione di immagini RGB, mappe di profondità, nuvole di punti, calibrazione del sensore (intrinseca, estrinseca, occhio-mano), rilevamento di oggetti, segmentazione semantica, ricostruzione 3D, servovisione visiva o ottimizzazione della pipeline di percezione. Si attiva ogni volta che l'utente menziona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibrazione della fotocamera, AprilTags, marcatori ArUco, visione stereo, RGBD, filtraggio delle nuvole di punti, registrazione ICP, trasformazioni di coordinate, intrinseci della fotocamera, correzione della distorsione, indistorsione dell'immagine, streaming di sensori, sincronizzazione dei fotogrammi o qualsiasi attività di visione artificiale in un contesto di robotica. Copre anche gli impianti multi-camera, la sincronizzazione temporale tra i sensori, i budget per la latenza della percezione e l'implementazione in produzione dei canali di percezione. Fonte: arpitg1304/robotics-agent-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-10
Aggiornato
2026-03-11

Browse more skills from arpitg1304/robotics-agent-skills

Risposte rapide

Che cos'è robot-perception?

Best practice complete per i sistemi di percezione dei robot che coprono telecamere, LiDAR, sensori di profondità, IMU e configurazioni multisensore. Utilizza questa competenza quando lavori con elaborazione di immagini RGB, mappe di profondità, nuvole di punti, calibrazione del sensore (intrinseca, estrinseca, occhio-mano), rilevamento di oggetti, segmentazione semantica, ricostruzione 3D, servovisione visiva o ottimizzazione della pipeline di percezione. Si attiva ogni volta che l'utente menziona OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, calibrazione della fotocamera, AprilTags, marcatori ArUco, visione stereo, RGBD, filtraggio delle nuvole di punti, registrazione ICP, trasformazioni di coordinate, intrinseci della fotocamera, correzione della distorsione, indistorsione dell'immagine, streaming di sensori, sincronizzazione dei fotogrammi o qualsiasi attività di visione artificiale in un contesto di robotica. Copre anche gli impianti multi-camera, la sincronizzazione temporale tra i sensori, i budget per la latenza della percezione e l'implementazione in produzione dei canali di percezione. Fonte: arpitg1304/robotics-agent-skills.

Come installo robot-perception?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/arpitg1304/robotics-agent-skills

Dettagli

Categoria
</>Sviluppo
Fonte
skills.sh
Prima apparizione
2026-03-10

Skills correlate

Nessuna