·robot-perception
</>

robot-perception

카메라, LiDAR, 깊이 센서, IMU 및 다중 센서 설정을 다루는 로봇 인식 시스템에 대한 포괄적인 모범 사례입니다. RGB 이미지 처리, 깊이 맵, 포인트 클라우드, 센서 교정(내재적, 외부적, 손 눈), 객체 감지, 의미론적 분할, 3D 재구성, 시각적 서보잉 또는 인식 파이프라인 최적화 작업을 수행할 때 이 기술을 사용하십시오. 사용자가 OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, 카메라 보정, AprilTags, ArUco 마커, 스테레오 비전, RGBD, 포인트 클라우드 필터링, ICP 등록, 좌표 변환, 카메라 내장 기능, 왜곡 보정, 이미지 왜곡 제거, 센서 스트리밍, 프레임 동기화 또는 로봇 공학 맥락의 모든 컴퓨터 비전 작업을 언급할 때마다 트리거됩니다. 또한 다중 카메라 장비, 센서 간 시간 동기화, 인식 대기 시간 예산 및 인식 파이프라인의 프로덕션 배포도 다룹니다.

9설치·1트렌드·@arpitg1304

설치

$npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception

robot-perception 설치 방법

명령줄에서 robot-perception AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: arpitg1304/robotics-agent-skills.

카메라, LiDAR, 깊이 센서, IMU 및 다중 센서 설정을 다루는 로봇 인식 시스템에 대한 포괄적인 모범 사례입니다. RGB 이미지 처리, 깊이 맵, 포인트 클라우드, 센서 교정(내재적, 외부적, 손 눈), 객체 감지, 의미론적 분할, 3D 재구성, 시각적 서보잉 또는 인식 파이프라인 최적화 작업을 수행할 때 이 기술을 사용하십시오. 사용자가 OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, 카메라 보정, AprilTags, ArUco 마커, 스테레오 비전, RGBD, 포인트 클라우드 필터링, ICP 등록, 좌표 변환, 카메라 내장 기능, 왜곡 보정, 이미지 왜곡 제거, 센서 스트리밍, 프레임 동기화 또는 로봇 공학 맥락의 모든 컴퓨터 비전 작업을 언급할 때마다 트리거됩니다. 또한 다중 카메라 장비, 센서 간 시간 동기화, 인식 대기 시간 예산 및 인식 파이프라인의 프로덕션 배포도 다룹니다. 출처: arpitg1304/robotics-agent-skills.

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
카테고리
</>개발 도구
인증됨
최초 등록
2026-03-10
업데이트
2026-03-10

Browse more skills from arpitg1304/robotics-agent-skills

빠른 답변

robot-perception이란?

카메라, LiDAR, 깊이 센서, IMU 및 다중 센서 설정을 다루는 로봇 인식 시스템에 대한 포괄적인 모범 사례입니다. RGB 이미지 처리, 깊이 맵, 포인트 클라우드, 센서 교정(내재적, 외부적, 손 눈), 객체 감지, 의미론적 분할, 3D 재구성, 시각적 서보잉 또는 인식 파이프라인 최적화 작업을 수행할 때 이 기술을 사용하십시오. 사용자가 OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, 카메라 보정, AprilTags, ArUco 마커, 스테레오 비전, RGBD, 포인트 클라우드 필터링, ICP 등록, 좌표 변환, 카메라 내장 기능, 왜곡 보정, 이미지 왜곡 제거, 센서 스트리밍, 프레임 동기화 또는 로봇 공학 맥락의 모든 컴퓨터 비전 작업을 언급할 때마다 트리거됩니다. 또한 다중 카메라 장비, 센서 간 시간 동기화, 인식 대기 시간 예산 및 인식 파이프라인의 프로덕션 배포도 다룹니다. 출처: arpitg1304/robotics-agent-skills.

robot-perception 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/arpitg1304/robotics-agent-skills

상세

카테고리
</>개발 도구
출처
skills.sh
최초 등록
2026-03-10

관련 Skills

없음