·robot-perception
</>

robot-perception

Meilleures pratiques complètes pour les systèmes de perception des robots couvrant les caméras, les LiDAR, les capteurs de profondeur, les IMU et les configurations multi-capteurs. Utilisez cette compétence lorsque vous travaillez avec le traitement d'images RVB, les cartes de profondeur, les nuages ​​de points, l'étalonnage des capteurs (intrinsèque, extrinsèque, œil-main), la détection d'objets, la segmentation sémantique, la reconstruction 3D, l'asservissement visuel ou l'optimisation du pipeline de perception. Déclenchez chaque fois que l'utilisateur mentionne OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, l'étalonnage de la caméra, AprilTags, les marqueurs ArUco, la vision stéréo, RGBD, le filtrage des nuages ​​de points, l'enregistrement ICP, les transformations de coordonnées, les intrinsèques de la caméra, la correction de la distorsion, la non-distorsion de l'image, le streaming des capteurs, la synchronisation des images ou toute tâche de vision par ordinateur dans un contexte robotique. Couvre également les plates-formes multi-caméras, la synchronisation temporelle entre les capteurs, les budgets de latence de perception et le déploiement en production de pipelines de perception.

10Installations·2Tendance·@arpitg1304

Installation

$npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception

Comment installer robot-perception

Installez rapidement le skill IA robot-perception dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : arpitg1304/robotics-agent-skills.

Meilleures pratiques complètes pour les systèmes de perception des robots couvrant les caméras, les LiDAR, les capteurs de profondeur, les IMU et les configurations multi-capteurs. Utilisez cette compétence lorsque vous travaillez avec le traitement d'images RVB, les cartes de profondeur, les nuages ​​de points, l'étalonnage des capteurs (intrinsèque, extrinsèque, œil-main), la détection d'objets, la segmentation sémantique, la reconstruction 3D, l'asservissement visuel ou l'optimisation du pipeline de perception. Déclenchez chaque fois que l'utilisateur mentionne OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, l'étalonnage de la caméra, AprilTags, les marqueurs ArUco, la vision stéréo, RGBD, le filtrage des nuages ​​de points, l'enregistrement ICP, les transformations de coordonnées, les intrinsèques de la caméra, la correction de la distorsion, la non-distorsion de l'image, le streaming des capteurs, la synchronisation des images ou toute tâche de vision par ordinateur dans un contexte robotique. Couvre également les plates-formes multi-caméras, la synchronisation temporelle entre les capteurs, les budgets de latence de perception et le déploiement en production de pipelines de perception. Source : arpitg1304/robotics-agent-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
Catégorie
</>Développement
Vérifié
Première apparition
2026-03-10
Mis à jour
2026-03-11

Browse more skills from arpitg1304/robotics-agent-skills

Réponses rapides

Qu'est-ce que robot-perception ?

Meilleures pratiques complètes pour les systèmes de perception des robots couvrant les caméras, les LiDAR, les capteurs de profondeur, les IMU et les configurations multi-capteurs. Utilisez cette compétence lorsque vous travaillez avec le traitement d'images RVB, les cartes de profondeur, les nuages ​​de points, l'étalonnage des capteurs (intrinsèque, extrinsèque, œil-main), la détection d'objets, la segmentation sémantique, la reconstruction 3D, l'asservissement visuel ou l'optimisation du pipeline de perception. Déclenchez chaque fois que l'utilisateur mentionne OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, l'étalonnage de la caméra, AprilTags, les marqueurs ArUco, la vision stéréo, RGBD, le filtrage des nuages ​​de points, l'enregistrement ICP, les transformations de coordonnées, les intrinsèques de la caméra, la correction de la distorsion, la non-distorsion de l'image, le streaming des capteurs, la synchronisation des images ou toute tâche de vision par ordinateur dans un contexte robotique. Couvre également les plates-formes multi-caméras, la synchronisation temporelle entre les capteurs, les budgets de latence de perception et le déploiement en production de pipelines de perception. Source : arpitg1304/robotics-agent-skills.

Comment installer robot-perception ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/arpitg1304/robotics-agent-skills

Détails

Catégorie
</>Développement
Source
skills.sh
Première apparition
2026-03-10

Skills Connexes

Aucun