·robot-perception
</>

robot-perception

Umfassende Best Practices für Roboterwahrnehmungssysteme, die Kameras, LiDARs, Tiefensensoren, IMUs und Multisensor-Setups umfassen. Nutzen Sie diese Fähigkeit, wenn Sie mit RGB-Bildverarbeitung, Tiefenkarten, Punktwolken, Sensorkalibrierung (intrinsisch, extrinsisch, Hand-Auge), Objekterkennung, semantischer Segmentierung, 3D-Rekonstruktion, visueller Servosteuerung oder Optimierung der Wahrnehmungspipeline arbeiten. Wird immer dann ausgelöst, wenn der Benutzer OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, Kamerakalibrierung, AprilTags, ArUco-Marker, Stereovision, RGBD, Punktwolkenfilterung, ICP-Registrierung, Koordinatentransformationen, Kameraeigenschaften, Verzerrungskorrektur, Bildverzerrung, Sensor-Streaming, Frame-Synchronisierung oder eine andere Computer-Vision-Aufgabe im Robotikkontext erwähnt. Behandelt auch Mehrkamera-Rigs, Zeitsynchronisation zwischen Sensoren, Wahrnehmungslatenzbudgets und den Produktionseinsatz von Wahrnehmungspipelines.

10Installationen·2Trend·@arpitg1304

Installation

$npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception

So installieren Sie robot-perception

Installieren Sie den KI-Skill robot-perception schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: arpitg1304/robotics-agent-skills.

Umfassende Best Practices für Roboterwahrnehmungssysteme, die Kameras, LiDARs, Tiefensensoren, IMUs und Multisensor-Setups umfassen. Nutzen Sie diese Fähigkeit, wenn Sie mit RGB-Bildverarbeitung, Tiefenkarten, Punktwolken, Sensorkalibrierung (intrinsisch, extrinsisch, Hand-Auge), Objekterkennung, semantischer Segmentierung, 3D-Rekonstruktion, visueller Servosteuerung oder Optimierung der Wahrnehmungspipeline arbeiten. Wird immer dann ausgelöst, wenn der Benutzer OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, Kamerakalibrierung, AprilTags, ArUco-Marker, Stereovision, RGBD, Punktwolkenfilterung, ICP-Registrierung, Koordinatentransformationen, Kameraeigenschaften, Verzerrungskorrektur, Bildverzerrung, Sensor-Streaming, Frame-Synchronisierung oder eine andere Computer-Vision-Aufgabe im Robotikkontext erwähnt. Behandelt auch Mehrkamera-Rigs, Zeitsynchronisation zwischen Sensoren, Wahrnehmungslatenzbudgets und den Produktionseinsatz von Wahrnehmungspipelines. Quelle: arpitg1304/robotics-agent-skills.

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-10
Aktualisiert
2026-03-11

Browse more skills from arpitg1304/robotics-agent-skills

Schnelle Antworten

Was ist robot-perception?

Umfassende Best Practices für Roboterwahrnehmungssysteme, die Kameras, LiDARs, Tiefensensoren, IMUs und Multisensor-Setups umfassen. Nutzen Sie diese Fähigkeit, wenn Sie mit RGB-Bildverarbeitung, Tiefenkarten, Punktwolken, Sensorkalibrierung (intrinsisch, extrinsisch, Hand-Auge), Objekterkennung, semantischer Segmentierung, 3D-Rekonstruktion, visueller Servosteuerung oder Optimierung der Wahrnehmungspipeline arbeiten. Wird immer dann ausgelöst, wenn der Benutzer OpenCV, Open3D, PCL, RealSense, ZED, OAK-D, Kamerakalibrierung, AprilTags, ArUco-Marker, Stereovision, RGBD, Punktwolkenfilterung, ICP-Registrierung, Koordinatentransformationen, Kameraeigenschaften, Verzerrungskorrektur, Bildverzerrung, Sensor-Streaming, Frame-Synchronisierung oder eine andere Computer-Vision-Aufgabe im Robotikkontext erwähnt. Behandelt auch Mehrkamera-Rigs, Zeitsynchronisation zwischen Sensoren, Wahrnehmungslatenzbudgets und den Produktionseinsatz von Wahrnehmungspipelines. Quelle: arpitg1304/robotics-agent-skills.

Wie installiere ich robot-perception?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/arpitg1304/robotics-agent-skills --skill robot-perception Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/arpitg1304/robotics-agent-skills

Details

Kategorie
</>Entwicklung
Quelle
skills.sh
Erstes Auftreten
2026-03-10

Verwandte Skills

Keine