·clip

نموذج OpenAI الذي يربط الرؤية واللغة. يتيح تصنيف الصور بدون لقطة، ومطابقة نص الصورة، واسترجاع الوسائط المتعددة. تم التدريب على 400 مليون زوج من الصور والنص. يُستخدم للبحث عن الصور، أو الإشراف على المحتوى، أو مهام لغة الرؤية دون ضبط دقيق. الأفضل لفهم الصور للأغراض العامة.

28التثبيتات·0الرائج·@ovachiever

التثبيت

$npx skills add https://github.com/ovachiever/droid-tings --skill clip

كيفية تثبيت clip

ثبّت مهارة الذكاء الاصطناعي clip بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill clip
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: ovachiever/droid-tings.

| RN50 | 102M | Fast | Good | | ViT-B/32 | 151M | Medium | Better | | ViT-L/14 | 428M | Slow | Best |

| Image encoding | 200ms | 20ms | | Text encoding | 50ms | 5ms | | Similarity compute | <1ms | <1ms |

نموذج OpenAI الذي يربط الرؤية واللغة. يتيح تصنيف الصور بدون لقطة، ومطابقة نص الصورة، واسترجاع الوسائط المتعددة. تم التدريب على 400 مليون زوج من الصور والنص. يُستخدم للبحث عن الصور، أو الإشراف على المحتوى، أو مهام لغة الرؤية دون ضبط دقيق. الأفضل لفهم الصور للأغراض العامة. المصدر: ovachiever/droid-tings.

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill clip بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/ovachiever/droid-tings --skill clip
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-11

Browse more skills from ovachiever/droid-tings

إجابات سريعة

ما هي clip؟

نموذج OpenAI الذي يربط الرؤية واللغة. يتيح تصنيف الصور بدون لقطة، ومطابقة نص الصورة، واسترجاع الوسائط المتعددة. تم التدريب على 400 مليون زوج من الصور والنص. يُستخدم للبحث عن الصور، أو الإشراف على المحتوى، أو مهام لغة الرؤية دون ضبط دقيق. الأفضل لفهم الصور للأغراض العامة. المصدر: ovachiever/droid-tings.

كيف أثبّت clip؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/ovachiever/droid-tings --skill clip بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/ovachiever/droid-tings