·vision-framework
</>

vision-framework

Implementa funzionalità di visione artificiale tra cui il riconoscimento del testo (OCR), il rilevamento dei volti, la scansione dei codici a barre, la segmentazione delle immagini, il tracciamento degli oggetti e la scansione dei documenti nelle app iOS. Copre sia la moderna API Vision nativa di Swift (iOS 16+) che i modelli VNRequest legacy, VisionKit DataScannerViewController per la scansione della fotocamera in tempo reale e VNCoreMLRequest per l'inferenza del modello personalizzato. Da utilizzare quando si aggiungono OCR, scansione di codici a barre, rilevamento dei volti o inferenza di modelli Core ML personalizzati con Vision.

40Installazioni·16Tendenza·@dpearson2699

Installazione

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework

Come installare vision-framework

Installa rapidamente la skill AI vision-framework nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: dpearson2699/swift-ios-skills.

Detect text, faces, barcodes, objects, and body poses in images and video using on-device computer vision. Patterns target iOS 26+ with Swift 6.2, backward-compatible where noted.

See references/vision-requests.md for complete code patterns and references/visionkit-scanner.md for DataScannerViewController integration.

Vision has two distinct API layers. Prefer the modern API for new code.

Implementa funzionalità di visione artificiale tra cui il riconoscimento del testo (OCR), il rilevamento dei volti, la scansione dei codici a barre, la segmentazione delle immagini, il tracciamento degli oggetti e la scansione dei documenti nelle app iOS. Copre sia la moderna API Vision nativa di Swift (iOS 16+) che i modelli VNRequest legacy, VisionKit DataScannerViewController per la scansione della fotocamera in tempo reale e VNCoreMLRequest per l'inferenza del modello personalizzato. Da utilizzare quando si aggiungono OCR, scansione di codici a barre, rilevamento dei volti o inferenza di modelli Core ML personalizzati con Vision. Fonte: dpearson2699/swift-ios-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework
Categoria
</>Sviluppo
Verificato
Prima apparizione
2026-03-09
Aggiornato
2026-03-10

Browse more skills from dpearson2699/swift-ios-skills

Risposte rapide

Che cos'è vision-framework?

Implementa funzionalità di visione artificiale tra cui il riconoscimento del testo (OCR), il rilevamento dei volti, la scansione dei codici a barre, la segmentazione delle immagini, il tracciamento degli oggetti e la scansione dei documenti nelle app iOS. Copre sia la moderna API Vision nativa di Swift (iOS 16+) che i modelli VNRequest legacy, VisionKit DataScannerViewController per la scansione della fotocamera in tempo reale e VNCoreMLRequest per l'inferenza del modello personalizzato. Da utilizzare quando si aggiungono OCR, scansione di codici a barre, rilevamento dei volti o inferenza di modelli Core ML personalizzati con Vision. Fonte: dpearson2699/swift-ios-skills.

Come installo vision-framework?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/dpearson2699/swift-ios-skills