·vision-framework
</>

vision-framework

Implementieren Sie Computer-Vision-Funktionen wie Texterkennung (OCR), Gesichtserkennung, Barcode-Scannen, Bildsegmentierung, Objektverfolgung und Dokumentenscannen in iOS-Apps. Deckt sowohl die moderne Swift-native Vision API (iOS 16+) als auch ältere VNRequest-Muster, VisionKit DataScannerViewController für Live-Kamerascans und VNCoreMLRequest für benutzerdefinierte Modellinferenz ab. Verwenden Sie diese Option, wenn Sie OCR, Barcode-Scannen, Gesichtserkennung oder benutzerdefinierte Core ML-Modellinferenz mit Vision hinzufügen.

54Installationen·27Trend·@dpearson2699

Installation

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework

So installieren Sie vision-framework

Installieren Sie den KI-Skill vision-framework schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: dpearson2699/swift-ios-skills.

Detect text, faces, barcodes, objects, and body poses in images and video using on-device computer vision. Patterns target iOS 26+ with Swift 6.2, backward-compatible where noted.

See references/vision-requests.md for complete code patterns and references/visionkit-scanner.md for DataScannerViewController integration.

Vision has two distinct API layers. Prefer the modern API for new code.

Implementieren Sie Computer-Vision-Funktionen wie Texterkennung (OCR), Gesichtserkennung, Barcode-Scannen, Bildsegmentierung, Objektverfolgung und Dokumentenscannen in iOS-Apps. Deckt sowohl die moderne Swift-native Vision API (iOS 16+) als auch ältere VNRequest-Muster, VisionKit DataScannerViewController für Live-Kamerascans und VNCoreMLRequest für benutzerdefinierte Modellinferenz ab. Verwenden Sie diese Option, wenn Sie OCR, Barcode-Scannen, Gesichtserkennung oder benutzerdefinierte Core ML-Modellinferenz mit Vision hinzufügen. Quelle: dpearson2699/swift-ios-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-03-09
Aktualisiert
2026-03-11

Browse more skills from dpearson2699/swift-ios-skills

Schnelle Antworten

Was ist vision-framework?

Implementieren Sie Computer-Vision-Funktionen wie Texterkennung (OCR), Gesichtserkennung, Barcode-Scannen, Bildsegmentierung, Objektverfolgung und Dokumentenscannen in iOS-Apps. Deckt sowohl die moderne Swift-native Vision API (iOS 16+) als auch ältere VNRequest-Muster, VisionKit DataScannerViewController für Live-Kamerascans und VNCoreMLRequest für benutzerdefinierte Modellinferenz ab. Verwenden Sie diese Option, wenn Sie OCR, Barcode-Scannen, Gesichtserkennung oder benutzerdefinierte Core ML-Modellinferenz mit Vision hinzufügen. Quelle: dpearson2699/swift-ios-skills.

Wie installiere ich vision-framework?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/dpearson2699/swift-ios-skills