·vision-framework
</>

vision-framework

تنفيذ ميزات رؤية الكمبيوتر بما في ذلك التعرف على النص (OCR)، واكتشاف الوجه، ومسح الرمز الشريطي، وتجزئة الصور، وتتبع الكائنات، ومسح المستندات ضوئيًا في تطبيقات iOS. يغطي كلاً من واجهة برمجة تطبيقات Vision API الحديثة لـ Swift-native (iOS 16+) وأنماط VNRequest القديمة، وVisionKit DataScannerViewController للمسح المباشر للكاميرا، وVNCoreMLRequest لاستدلال النموذج المخصص. يُستخدم عند إضافة التعرف الضوئي على الحروف، أو مسح الرمز الشريطي، أو اكتشاف الوجه، أو استدلال نموذج Core ML المخصص مع Vision.

40التثبيتات·16الرائج·@dpearson2699

التثبيت

$npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework

كيفية تثبيت vision-framework

ثبّت مهارة الذكاء الاصطناعي vision-framework بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: dpearson2699/swift-ios-skills.

Detect text, faces, barcodes, objects, and body poses in images and video using on-device computer vision. Patterns target iOS 26+ with Swift 6.2, backward-compatible where noted.

See references/vision-requests.md for complete code patterns and references/visionkit-scanner.md for DataScannerViewController integration.

Vision has two distinct API layers. Prefer the modern API for new code.

تنفيذ ميزات رؤية الكمبيوتر بما في ذلك التعرف على النص (OCR)، واكتشاف الوجه، ومسح الرمز الشريطي، وتجزئة الصور، وتتبع الكائنات، ومسح المستندات ضوئيًا في تطبيقات iOS. يغطي كلاً من واجهة برمجة تطبيقات Vision API الحديثة لـ Swift-native (iOS 16+) وأنماط VNRequest القديمة، وVisionKit DataScannerViewController للمسح المباشر للكاميرا، وVNCoreMLRequest لاستدلال النموذج المخصص. يُستخدم عند إضافة التعرف الضوئي على الحروف، أو مسح الرمز الشريطي، أو اكتشاف الوجه، أو استدلال نموذج Core ML المخصص مع Vision. المصدر: dpearson2699/swift-ios-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-03-09
آخر تحديث
2026-03-10

Browse more skills from dpearson2699/swift-ios-skills

إجابات سريعة

ما هي vision-framework؟

تنفيذ ميزات رؤية الكمبيوتر بما في ذلك التعرف على النص (OCR)، واكتشاف الوجه، ومسح الرمز الشريطي، وتجزئة الصور، وتتبع الكائنات، ومسح المستندات ضوئيًا في تطبيقات iOS. يغطي كلاً من واجهة برمجة تطبيقات Vision API الحديثة لـ Swift-native (iOS 16+) وأنماط VNRequest القديمة، وVisionKit DataScannerViewController للمسح المباشر للكاميرا، وVNCoreMLRequest لاستدلال النموذج المخصص. يُستخدم عند إضافة التعرف الضوئي على الحروف، أو مسح الرمز الشريطي، أو اكتشاف الوجه، أو استدلال نموذج Core ML المخصص مع Vision. المصدر: dpearson2699/swift-ios-skills.

كيف أثبّت vision-framework؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/dpearson2699/swift-ios-skills --skill vision-framework بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/dpearson2699/swift-ios-skills

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-03-09