·speech-recognition
""

speech-recognition

Transkribieren Sie Sprache mithilfe des Speech-Frameworks in Text. Verwenden Sie diese Option, wenn Sie Live-Mikrofontranskription mit AVAudioEngine implementieren, vorab aufgezeichnete Audiodateien erkennen, die Erkennung auf dem Gerät im Vergleich zur serverbasierten Erkennung konfigurieren, Autorisierungsabläufe verwalten oder die neue SpeechAnalyzer-API (iOS 26+) für moderne asynchrone/wartende Spracherkennung übernehmen.

44Installationen·18Trend·@dpearson2699

Installation

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition

So installieren Sie speech-recognition

Installieren Sie den KI-Skill speech-recognition schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: dpearson2699/swift-ios-skills.

Transcribe live and pre-recorded audio to text using Apple's Speech framework. Covers SFSpeechRecognizer (iOS 10+) and the new SpeechAnalyzer API (iOS 26+).

SpeechAnalyzer is an actor-based API introduced in iOS 26 that replaces SFSpeechRecognizer for new projects. It uses Swift concurrency, AsyncSequence for results, and supports modular analysis via SpeechTranscriber.

| Concurrency | Callbacks/delegates | async/await + AsyncSequence | | Type | class | actor | | Modules | Monolithic | Composable (SpeechTranscriber, SpeechDetector) | | Audio input | append(:) on request | AsyncStream | | Availability | iOS 10+ | iOS 26+ | | On-device | requiresOnDeviceRecognition | Asset-based via AssetInventory |

Transkribieren Sie Sprache mithilfe des Speech-Frameworks in Text. Verwenden Sie diese Option, wenn Sie Live-Mikrofontranskription mit AVAudioEngine implementieren, vorab aufgezeichnete Audiodateien erkennen, die Erkennung auf dem Gerät im Vergleich zur serverbasierten Erkennung konfigurieren, Autorisierungsabläufe verwalten oder die neue SpeechAnalyzer-API (iOS 26+) für moderne asynchrone/wartende Spracherkennung übernehmen. Quelle: dpearson2699/swift-ios-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
Kategorie
""Schreiben
Verifiziert
Erstes Auftreten
2026-03-09
Aktualisiert
2026-03-10

Browse more skills from dpearson2699/swift-ios-skills

Schnelle Antworten

Was ist speech-recognition?

Transkribieren Sie Sprache mithilfe des Speech-Frameworks in Text. Verwenden Sie diese Option, wenn Sie Live-Mikrofontranskription mit AVAudioEngine implementieren, vorab aufgezeichnete Audiodateien erkennen, die Erkennung auf dem Gerät im Vergleich zur serverbasierten Erkennung konfigurieren, Autorisierungsabläufe verwalten oder die neue SpeechAnalyzer-API (iOS 26+) für moderne asynchrone/wartende Spracherkennung übernehmen. Quelle: dpearson2699/swift-ios-skills.

Wie installiere ich speech-recognition?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/dpearson2699/swift-ios-skills