·robot-perception
</>

robot-perception

カメラ、LiDAR、深度センサー、IMU、マルチセンサー設定をカバーするロボット認識システムの包括的なベスト プラクティス。このスキルは、RGB 画像処理、深度マップ、点群、センサー キャリブレーション (固有、外部、ハンドアイ)、オブジェクト検出、セマンティック セグメンテーション、3D 再構築、ビジュアル サーボ、または知覚パイプラインの最適化を操作するときに使用します。ユーザーが OpenCV、Open3D、PCL、RealSense、ZED、OAK-D、カメラ キャリブレーション、AprilTags、ArUco マーカー、ステレオ ビジョン、RGBD、点群フィルタリング、ICP 登録、座標変換、カメラ組み込み、歪み補正、画像の歪みの解消、センサー ストリーミング、フレーム同期、またはロボット工学コンテキストでのコンピューター ビジョン タスクに言及するたびにトリガーされます。また、マルチカメラ リグ、センサー間の時間同期、認識レイテンシー バジェット、認識パイプラインの実稼働展開についても取り上げます。

9インストール·1トレンド·@arpitg1304

インストール

$npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception

robot-perception のインストール方法

コマンドラインで robot-perception AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: arpitg1304/robotics-agent-skills。

カメラ、LiDAR、深度センサー、IMU、マルチセンサー設定をカバーするロボット認識システムの包括的なベスト プラクティス。このスキルは、RGB 画像処理、深度マップ、点群、センサー キャリブレーション (固有、外部、ハンドアイ)、オブジェクト検出、セマンティック セグメンテーション、3D 再構築、ビジュアル サーボ、または知覚パイプラインの最適化を操作するときに使用します。ユーザーが OpenCV、Open3D、PCL、RealSense、ZED、OAK-D、カメラ キャリブレーション、AprilTags、ArUco マーカー、ステレオ ビジョン、RGBD、点群フィルタリング、ICP 登録、座標変換、カメラ組み込み、歪み補正、画像の歪みの解消、センサー ストリーミング、フレーム同期、またはロボット工学コンテキストでのコンピューター ビジョン タスクに言及するたびにトリガーされます。また、マルチカメラ リグ、センサー間の時間同期、認識レイテンシー バジェット、認識パイプラインの実稼働展開についても取り上げます。 ソース: arpitg1304/robotics-agent-skills。

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

安全認証済み、信頼性の高いコード ワンクリックインストール、簡単設定 Claude Code、Cursor、OpenClaw などに対応

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
カテゴリ
</>開発ツール
認証済み
初回登録
2026-03-10
更新日
2026-03-10

Browse more skills from arpitg1304/robotics-agent-skills

クイックアンサー

robot-perception とは?

カメラ、LiDAR、深度センサー、IMU、マルチセンサー設定をカバーするロボット認識システムの包括的なベスト プラクティス。このスキルは、RGB 画像処理、深度マップ、点群、センサー キャリブレーション (固有、外部、ハンドアイ)、オブジェクト検出、セマンティック セグメンテーション、3D 再構築、ビジュアル サーボ、または知覚パイプラインの最適化を操作するときに使用します。ユーザーが OpenCV、Open3D、PCL、RealSense、ZED、OAK-D、カメラ キャリブレーション、AprilTags、ArUco マーカー、ステレオ ビジョン、RGBD、点群フィルタリング、ICP 登録、座標変換、カメラ組み込み、歪み補正、画像の歪みの解消、センサー ストリーミング、フレーム同期、またはロボット工学コンテキストでのコンピューター ビジョン タスクに言及するたびにトリガーされます。また、マルチカメラ リグ、センサー間の時間同期、認識レイテンシー バジェット、認識パイプラインの実稼働展開についても取り上げます。 ソース: arpitg1304/robotics-agent-skills。

robot-perception のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/arpitg1304/robotics-agent-skills

詳細

カテゴリ
</>開発ツール
ソース
skills.sh
初回登録
2026-03-10

関連 Skills

なし