·multimodal-models
</>

multimodal-models

يُستخدم عند "CLIP"، و"Whisper"، و"Stable Diffusion"، و"SDXL"، و"تحويل الكلام إلى نص"، و"تحويل النص إلى صورة"، و"إنشاء الصور"، و"النسخ"، و"تصنيف اللقطة الصفرية"، و"تشابه الصورة والنص"، و"inpainting"، و"ControlNet"

31التثبيتات·3الرائج·@eyadsibai

التثبيت

$npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models

كيفية تثبيت multimodal-models

ثبّت مهارة الذكاء الاصطناعي multimodal-models بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: eyadsibai/ltk.

| CLIP | Image + Text | Zero-shot classification, similarity | | Whisper | Audio → Text | Transcription, translation | | Stable Diffusion | Text → Image | Image generation, editing |

| Zero-shot classification | Compare image to text label embeddings | | Image search | Find images matching text query | | Content moderation | Classify against safety categories | | Image similarity | Compare image embeddings |

| ViT-B/32 | 151M | Recommended balance | | ViT-L/14 | 428M | Best quality, slower | | RN50 | 102M | Fastest, lower quality |

يُستخدم عند "CLIP"، و"Whisper"، و"Stable Diffusion"، و"SDXL"، و"تحويل الكلام إلى نص"، و"تحويل النص إلى صورة"، و"إنشاء الصور"، و"النسخ"، و"تصنيف اللقطة الصفرية"، و"تشابه الصورة والنص"، و"inpainting"، و"ControlNet" المصدر: eyadsibai/ltk.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models
المصدر
eyadsibai/ltk
الفئة
</>أدوات التطوير
موثق
أول ظهور
2026-02-17
آخر تحديث
2026-03-10

Browse more skills from eyadsibai/ltk

إجابات سريعة

ما هي multimodal-models؟

يُستخدم عند "CLIP"، و"Whisper"، و"Stable Diffusion"، و"SDXL"، و"تحويل الكلام إلى نص"، و"تحويل النص إلى صورة"، و"إنشاء الصور"، و"النسخ"، و"تصنيف اللقطة الصفرية"، و"تشابه الصورة والنص"، و"inpainting"، و"ControlNet" المصدر: eyadsibai/ltk.

كيف أثبّت multimodal-models؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/eyadsibai/ltk --skill multimodal-models بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/eyadsibai/ltk

التفاصيل

الفئة
</>أدوات التطوير
المصدر
skills.sh
أول ظهور
2026-02-17