·reachy-mini
*

reachy-mini

gary149/reachy-mini-skill

Reachy Mini ロボットを制御するための完全な SDK (頭の動き、アンテナ、カメラ、オーディオ、モーションの記録/再生)。 アーキテクチャ (デーモン/クライアント)、展開モード (USB、ワイヤレス、シミュレーション、on-Pi)、アプリの配布について説明します。 高度なアプリケーション パターンも含まれています: MovementManager、レイヤード モーション、オーディオ反応性の動き、顔の追跡、 LLM ツール システム、および OpenAI リアルタイム統合。 次の場合に使用します: (1) Reachy Mini を制御するコードの作成、(2) ロボットのヘッドまたはアンテナの移動、(3) カメラ/ビデオへのアクセス、 (4) オーディオの再生/録音、(5) モーションの記録または再生、(6) 画像またはワールド空間内の点の確認、 (7) ロボットの機能を理解する、(8) 実際のロボットまたはシミュレートされたロボットに接続する、(9) 会話型 AI アプリを構築する、 (10) LLM/OpenAI との統合、(11) ロボットへのアプリの展開、(12) Reachy Mini を使用したあらゆるロボット タスク。

5インストール·0トレンド·@gary149

インストール

$npx skills add https://github.com/gary149/reachy-mini-skill --skill reachy-mini

SKILL.md

Motor IDs: "bodyrotation", "stewart1" through "stewart6", "rightantenna", "leftantenna"

Common resolutions: R1280x720at30fps, R1280x720at60fps, R1920x1080at30fps, R1920x1080at60fps, R3840x2160at30fps

| AnalyticalKinematics | Default | Fast | Always available | | PlacoKinematics | pip install reachymini[placokinematics] | Medium | Collision checking, gravity compensation | | NNKinematics | pip install reachymini[nnkinematics] | Very fast | Neural network based |

Reachy Mini ロボットを制御するための完全な SDK (頭の動き、アンテナ、カメラ、オーディオ、モーションの記録/再生)。 アーキテクチャ (デーモン/クライアント)、展開モード (USB、ワイヤレス、シミュレーション、on-Pi)、アプリの配布について説明します。 高度なアプリケーション パターンも含まれています: MovementManager、レイヤード モーション、オーディオ反応性の動き、顔の追跡、 LLM ツール システム、および OpenAI リアルタイム統合。 次の場合に使用します: (1) Reachy Mini を制御するコードの作成、(2) ロボットのヘッドまたはアンテナの移動、(3) カメラ/ビデオへのアクセス、 (4) オーディオの再生/録音、(5) モーションの記録または再生、(6) 画像またはワールド空間内の点の確認、 (7) ロボットの機能を理解する、(8) 実際のロボットまたはシミュレートされたロボットに接続する、(9) 会話型 AI アプリを構築する、 (10) LLM/OpenAI との統合、(11) ロボットへのアプリの展開、(12) Reachy Mini を使用したあらゆるロボット タスク。 ソース: gary149/reachy-mini-skill。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/gary149/reachy-mini-skill --skill reachy-mini
カテゴリ
*クリエイティブ
認証済み
初回登録
2026-02-01
更新日
2026-02-18

クイックアンサー

reachy-mini とは?

Reachy Mini ロボットを制御するための完全な SDK (頭の動き、アンテナ、カメラ、オーディオ、モーションの記録/再生)。 アーキテクチャ (デーモン/クライアント)、展開モード (USB、ワイヤレス、シミュレーション、on-Pi)、アプリの配布について説明します。 高度なアプリケーション パターンも含まれています: MovementManager、レイヤード モーション、オーディオ反応性の動き、顔の追跡、 LLM ツール システム、および OpenAI リアルタイム統合。 次の場合に使用します: (1) Reachy Mini を制御するコードの作成、(2) ロボットのヘッドまたはアンテナの移動、(3) カメラ/ビデオへのアクセス、 (4) オーディオの再生/録音、(5) モーションの記録または再生、(6) 画像またはワールド空間内の点の確認、 (7) ロボットの機能を理解する、(8) 実際のロボットまたはシミュレートされたロボットに接続する、(9) 会話型 AI アプリを構築する、 (10) LLM/OpenAI との統合、(11) ロボットへのアプリの展開、(12) Reachy Mini を使用したあらゆるロボット タスク。 ソース: gary149/reachy-mini-skill。

reachy-mini のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/gary149/reachy-mini-skill --skill reachy-mini インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/gary149/reachy-mini-skill

詳細

カテゴリ
*クリエイティブ
ソース
skills.sh
初回登録
2026-02-01

関連 Skills

なし