Load, configure, and run Core ML models in iOS apps. This skill covers the Swift side: model loading, prediction, MLTensor, profiling, and deployment. Target iOS 26+ with Swift 6.2, backward-compatible to iOS 14 unless noted.
Scope boundary: Python-side model conversion, optimization (quantization, palettization, pruning), and framework selection live in the apple-on-device-ai skill. This skill owns Swift integration only.
See references/coreml-swift-integration.md for complete code patterns including actor-based caching, batch inference, image preprocessing, and testing.
オンデバイスの機械学習推論のために、iOS アプリに Core ML モデルを統合して最適化します。モデルの読み込み (.mlmodelc、.mlpackage)、自動生成クラスと MLFeatureProvider による予測、計算ユニット構成 (CPU、GPU、ニューラル エンジン)、MLTensor、VNCoreMLRequest、MLComputePlan、マルチモデル パイプライン、およびデプロイメント戦略について説明します。 Core ML モデルの読み込み、予測の実行、コンピューティング ユニットの構成、またはモデルのパフォーマンスのプロファイリングを行うときに使用します。 ソース: dpearson2699/swift-ios-skills。