·speech-recognition
""

speech-recognition

Trascrivi il parlato in testo utilizzando il framework Discorso. Da utilizzare quando si implementa la trascrizione del microfono dal vivo con AVAudioEngine, si riconoscono file audio preregistrati, si configura il riconoscimento sul dispositivo rispetto a quello basato su server, si gestiscono i flussi di autorizzazione o si adotta la nuova API SpeechAnalyzer (iOS 26+) per la moderna sintesi vocale asincrona/attesa in testo.

44Installazioni·18Tendenza·@dpearson2699

Installazione

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition

Come installare speech-recognition

Installa rapidamente la skill AI speech-recognition nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: dpearson2699/swift-ios-skills.

Transcribe live and pre-recorded audio to text using Apple's Speech framework. Covers SFSpeechRecognizer (iOS 10+) and the new SpeechAnalyzer API (iOS 26+).

SpeechAnalyzer is an actor-based API introduced in iOS 26 that replaces SFSpeechRecognizer for new projects. It uses Swift concurrency, AsyncSequence for results, and supports modular analysis via SpeechTranscriber.

| Concurrency | Callbacks/delegates | async/await + AsyncSequence | | Type | class | actor | | Modules | Monolithic | Composable (SpeechTranscriber, SpeechDetector) | | Audio input | append(:) on request | AsyncStream | | Availability | iOS 10+ | iOS 26+ | | On-device | requiresOnDeviceRecognition | Asset-based via AssetInventory |

Trascrivi il parlato in testo utilizzando il framework Discorso. Da utilizzare quando si implementa la trascrizione del microfono dal vivo con AVAudioEngine, si riconoscono file audio preregistrati, si configura il riconoscimento sul dispositivo rispetto a quello basato su server, si gestiscono i flussi di autorizzazione o si adotta la nuova API SpeechAnalyzer (iOS 26+) per la moderna sintesi vocale asincrona/attesa in testo. Fonte: dpearson2699/swift-ios-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
Categoria
""Scrittura
Verificato
Prima apparizione
2026-03-09
Aggiornato
2026-03-10

Browse more skills from dpearson2699/swift-ios-skills

Risposte rapide

Che cos'è speech-recognition?

Trascrivi il parlato in testo utilizzando il framework Discorso. Da utilizzare quando si implementa la trascrizione del microfono dal vivo con AVAudioEngine, si riconoscono file audio preregistrati, si configura il riconoscimento sul dispositivo rispetto a quello basato su server, si gestiscono i flussi di autorizzazione o si adotta la nuova API SpeechAnalyzer (iOS 26+) per la moderna sintesi vocale asincrona/attesa in testo. Fonte: dpearson2699/swift-ios-skills.

Come installo speech-recognition?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/dpearson2699/swift-ios-skills