·speech-recognition
""

speech-recognition

Speech 프레임워크를 사용하여 음성을 텍스트로 변환합니다. AVAudioEngine을 사용하여 라이브 마이크 전사를 구현하거나, 사전 녹음된 오디오 파일을 인식하거나, 장치 내 인식과 서버 기반 인식을 구성하거나, 인증 흐름을 처리하거나, 최신 비동기/대기 음성 텍스트 변환을 위한 새로운 SpeechAnalyzer API(iOS 26+)를 채택할 때 사용합니다.

58설치·29트렌드·@dpearson2699

설치

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition

speech-recognition 설치 방법

명령줄에서 speech-recognition AI 스킬을 개발 환경에 빠르게 설치

  1. 터미널 열기: 터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다
  2. 설치 명령어 실행: 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
  3. 설치 확인: 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

출처: dpearson2699/swift-ios-skills.

Transcribe live and pre-recorded audio to text using Apple's Speech framework. Covers SFSpeechRecognizer (iOS 10+) and the new SpeechAnalyzer API (iOS 26+).

SpeechAnalyzer is an actor-based API introduced in iOS 26 that replaces SFSpeechRecognizer for new projects. It uses Swift concurrency, AsyncSequence for results, and supports modular analysis via SpeechTranscriber.

| Concurrency | Callbacks/delegates | async/await + AsyncSequence | | Type | class | actor | | Modules | Monolithic | Composable (SpeechTranscriber, SpeechDetector) | | Audio input | append(:) on request | AsyncStream | | Availability | iOS 10+ | iOS 26+ | | On-device | requiresOnDeviceRecognition | Asset-based via AssetInventory |

Speech 프레임워크를 사용하여 음성을 텍스트로 변환합니다. AVAudioEngine을 사용하여 라이브 마이크 전사를 구현하거나, 사전 녹음된 오디오 파일을 인식하거나, 장치 내 인식과 서버 기반 인식을 구성하거나, 인증 흐름을 처리하거나, 최신 비동기/대기 음성 텍스트 변환을 위한 새로운 SpeechAnalyzer API(iOS 26+)를 채택할 때 사용합니다. 출처: dpearson2699/swift-ios-skills.

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition
카테고리
""글쓰기
인증됨
최초 등록
2026-03-09
업데이트
2026-03-11

Browse more skills from dpearson2699/swift-ios-skills

빠른 답변

speech-recognition이란?

Speech 프레임워크를 사용하여 음성을 텍스트로 변환합니다. AVAudioEngine을 사용하여 라이브 마이크 전사를 구현하거나, 사전 녹음된 오디오 파일을 인식하거나, 장치 내 인식과 서버 기반 인식을 구성하거나, 인증 흐름을 처리하거나, 최신 비동기/대기 음성 텍스트 변환을 위한 새로운 SpeechAnalyzer API(iOS 26+)를 채택할 때 사용합니다. 출처: dpearson2699/swift-ios-skills.

speech-recognition 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill speech-recognition 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/dpearson2699/swift-ios-skills