·speech-recognition
""

speech-recognition

Speech フレームワークを使用して音声をテキストに書き起こします。 AVAudioEngine を使用したライブ マイク文字起こしの実装、事前録音されたオーディオ ファイルの認識、オンデバイスとサーバーベースの認識の構成、承認フローの処理、または最新の非同期/待機音声テキスト変換のための新しい SpeechAnalyzer API (iOS 26 以降) の採用時に使用します。

44インストール·18トレンド·@dpearson2699

インストール

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition

speech-recognition のインストール方法

コマンドラインで speech-recognition AI スキルを開発環境にすばやくインストール

  1. ターミナルを開く: ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます
  2. インストールコマンドを実行: このコマンドをコピーして実行します: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
  3. インストールを確認: インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソース: dpearson2699/swift-ios-skills。

Transcribe live and pre-recorded audio to text using Apple's Speech framework. Covers SFSpeechRecognizer (iOS 10+) and the new SpeechAnalyzer API (iOS 26+).

SpeechAnalyzer is an actor-based API introduced in iOS 26 that replaces SFSpeechRecognizer for new projects. It uses Swift concurrency, AsyncSequence for results, and supports modular analysis via SpeechTranscriber.

| Concurrency | Callbacks/delegates | async/await + AsyncSequence | | Type | class | actor | | Modules | Monolithic | Composable (SpeechTranscriber, SpeechDetector) | | Audio input | append(:) on request | AsyncStream | | Availability | iOS 10+ | iOS 26+ | | On-device | requiresOnDeviceRecognition | Asset-based via AssetInventory |

Speech フレームワークを使用して音声をテキストに書き起こします。 AVAudioEngine を使用したライブ マイク文字起こしの実装、事前録音されたオーディオ ファイルの認識、オンデバイスとサーバーベースの認識の構成、承認フローの処理、または最新の非同期/待機音声テキスト変換のための新しい SpeechAnalyzer API (iOS 26 以降) の採用時に使用します。 ソース: dpearson2699/swift-ios-skills。

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
カテゴリ
""ライティング
認証済み
初回登録
2026-03-09
更新日
2026-03-10

Browse more skills from dpearson2699/swift-ios-skills

クイックアンサー

speech-recognition とは?

Speech フレームワークを使用して音声をテキストに書き起こします。 AVAudioEngine を使用したライブ マイク文字起こしの実装、事前録音されたオーディオ ファイルの認識、オンデバイスとサーバーベースの認識の構成、承認フローの処理、または最新の非同期/待機音声テキスト変換のための新しい SpeechAnalyzer API (iOS 26 以降) の採用時に使用します。 ソース: dpearson2699/swift-ios-skills。

speech-recognition のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/dpearson2699/swift-ios-skills