什麼是 speech-recognition?
使用語音框架將語音轉錄為文字。在使用 AVAudioEngine 實現即時麥克風轉錄、識別預先錄製的音訊檔案、設定裝置上與基於伺服器的識別、處理授權流程或採用新的 SpeechAnalyzer API (iOS 26+) 進行現代非同步/等待語音轉文字時使用。 來源:dpearson2699/swift-ios-skills。
使用語音框架將語音轉錄為文字。在使用 AVAudioEngine 實現即時麥克風轉錄、識別預先錄製的音訊檔案、設定裝置上與基於伺服器的識別、處理授權流程或採用新的 SpeechAnalyzer API (iOS 26+) 進行現代非同步/等待語音轉文字時使用。
透過命令列快速安裝 speech-recognition AI 技能到你的開發環境
來源:dpearson2699/swift-ios-skills。
Transcribe live and pre-recorded audio to text using Apple's Speech framework. Covers SFSpeechRecognizer (iOS 10+) and the new SpeechAnalyzer API (iOS 26+).
SpeechAnalyzer is an actor-based API introduced in iOS 26 that replaces SFSpeechRecognizer for new projects. It uses Swift concurrency, AsyncSequence for results, and supports modular analysis via SpeechTranscriber.
| Concurrency | Callbacks/delegates | async/await + AsyncSequence | | Type | class | actor | | Modules | Monolithic | Composable (SpeechTranscriber, SpeechDetector) | | Audio input | append(:) on request | AsyncStream | | Availability | iOS 10+ | iOS 26+ | | On-device | requiresOnDeviceRecognition | Asset-based via AssetInventory |
使用語音框架將語音轉錄為文字。在使用 AVAudioEngine 實現即時麥克風轉錄、識別預先錄製的音訊檔案、設定裝置上與基於伺服器的識別、處理授權流程或採用新的 SpeechAnalyzer API (iOS 26+) 進行現代非同步/等待語音轉文字時使用。 來源:dpearson2699/swift-ios-skills。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition使用語音框架將語音轉錄為文字。在使用 AVAudioEngine 實現即時麥克風轉錄、識別預先錄製的音訊檔案、設定裝置上與基於伺服器的識別、處理授權流程或採用新的 SpeechAnalyzer API (iOS 26+) 進行現代非同步/等待語音轉文字時使用。 來源:dpearson2699/swift-ios-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/dpearson2699/swift-ios-skills