Meilleures pratiques complètes pour les systèmes de perception des robots couvrant les caméras, les LiDAR, les capteurs de profondeur, les IMU et les configurations multi-capteurs. Utilisez cette compétence lorsque vous travaillez avec le traitement d'images RVB, les cartes de profondeur, les nuages de points, l'étalonnage des capteurs (intrinsèque, extrinsèque, œil-main), la détection d'objets, la segmentation sémantique, la reconstruction 3D, l'asservissement visuel ou l'optimisation du pipeline de perception. Déclenchez chaque fois que l'utilisateur mentionne OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, l'étalonnage de la caméra, AprilTags, les marqueurs ArUco, la vision stéréo, RGBD, le filtrage des nuages de points, l'enregistrement ICP, les transformations de coordonnées, les intrinsèques de la caméra, la correction de la distorsion, la non-distorsion de l'image, le streaming des capteurs, la synchronisation des images ou toute tâche de vision par ordinateur dans un contexte robotique. Couvre également les plates-formes multi-caméras, la synchronisation temporelle entre les capteurs, les budgets de latence de perception et le déploiement en production de pipelines de perception.
Installez rapidement le skill IA robot-perception dans votre environnement de développement via la ligne de commande
Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw
Meilleures pratiques complètes pour les systèmes de perception des robots couvrant les caméras, les LiDAR, les capteurs de profondeur, les IMU et les configurations multi-capteurs. Utilisez cette compétence lorsque vous travaillez avec le traitement d'images RVB, les cartes de profondeur, les nuages de points, l'étalonnage des capteurs (intrinsèque, extrinsèque, œil-main), la détection d'objets, la segmentation sémantique, la reconstruction 3D, l'asservissement visuel ou l'optimisation du pipeline de perception. Déclenchez chaque fois que l'utilisateur mentionne OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, l'étalonnage de la caméra, AprilTags, les marqueurs ArUco, la vision stéréo, RGBD, le filtrage des nuages de points, l'enregistrement ICP, les transformations de coordonnées, les intrinsèques de la caméra, la correction de la distorsion, la non-distorsion de l'image, le streaming des capteurs, la synchronisation des images ou toute tâche de vision par ordinateur dans un contexte robotique. Couvre également les plates-formes multi-caméras, la synchronisation temporelle entre les capteurs, les budgets de latence de perception et le déploiement en production de pipelines de perception. Source : arpitg1304/robotics-agent-skills.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
Meilleures pratiques complètes pour les systèmes de perception des robots couvrant les caméras, les LiDAR, les capteurs de profondeur, les IMU et les configurations multi-capteurs. Utilisez cette compétence lorsque vous travaillez avec le traitement d'images RVB, les cartes de profondeur, les nuages de points, l'étalonnage des capteurs (intrinsèque, extrinsèque, œil-main), la détection d'objets, la segmentation sémantique, la reconstruction 3D, l'asservissement visuel ou l'optimisation du pipeline de perception. Déclenchez chaque fois que l'utilisateur mentionne OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, l'étalonnage de la caméra, AprilTags, les marqueurs ArUco, la vision stéréo, RGBD, le filtrage des nuages de points, l'enregistrement ICP, les transformations de coordonnées, les intrinsèques de la caméra, la correction de la distorsion, la non-distorsion de l'image, le streaming des capteurs, la synchronisation des images ou toute tâche de vision par ordinateur dans un contexte robotique. Couvre également les plates-formes multi-caméras, la synchronisation temporelle entre les capteurs, les budgets de latence de perception et le déploiement en production de pipelines de perception. Source : arpitg1304/robotics-agent-skills.
Comment installer robot-perception ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw