什么是 speech-recognition?
使用语音框架将语音转录为文本。在使用 AVAudioEngine 实现实时麦克风转录、识别预先录制的音频文件、配置设备上与基于服务器的识别、处理授权流程或采用新的 SpeechAnalyzer API (iOS 26+) 进行现代异步/等待语音转文本时使用。 来源:dpearson2699/swift-ios-skills。
使用语音框架将语音转录为文本。在使用 AVAudioEngine 实现实时麦克风转录、识别预先录制的音频文件、配置设备上与基于服务器的识别、处理授权流程或采用新的 SpeechAnalyzer API (iOS 26+) 进行现代异步/等待语音转文本时使用。
通过命令行快速安装 speech-recognition AI 技能到你的开发环境
来源:dpearson2699/swift-ios-skills。
Transcribe live and pre-recorded audio to text using Apple's Speech framework. Covers SFSpeechRecognizer (iOS 10+) and the new SpeechAnalyzer API (iOS 26+).
SpeechAnalyzer is an actor-based API introduced in iOS 26 that replaces SFSpeechRecognizer for new projects. It uses Swift concurrency, AsyncSequence for results, and supports modular analysis via SpeechTranscriber.
| Concurrency | Callbacks/delegates | async/await + AsyncSequence | | Type | class | actor | | Modules | Monolithic | Composable (SpeechTranscriber, SpeechDetector) | | Audio input | append(:) on request | AsyncStream | | Availability | iOS 10+ | iOS 26+ | | On-device | requiresOnDeviceRecognition | Asset-based via AssetInventory |
使用语音框架将语音转录为文本。在使用 AVAudioEngine 实现实时麦克风转录、识别预先录制的音频文件、配置设备上与基于服务器的识别、处理授权流程或采用新的 SpeechAnalyzer API (iOS 26+) 进行现代异步/等待语音转文本时使用。 来源:dpearson2699/swift-ios-skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition使用语音框架将语音转录为文本。在使用 AVAudioEngine 实现实时麦克风转录、识别预先录制的音频文件、配置设备上与基于服务器的识别、处理授权流程或采用新的 SpeechAnalyzer API (iOS 26+) 进行现代异步/等待语音转文本时使用。 来源:dpearson2699/swift-ios-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/dpearson2699/swift-ios-skills