·vision-language-models
{}

vision-language-models

GPT-5/4o، Claude 4.5، Gemini 2.5/3، Grok 4 أنماط الرؤية لتحليل الصور وفهم المستندات وضمان الجودة المرئية. يُستخدم عند تنفيذ التسميات التوضيحية للصور، أو تحليل المستندات/المخططات، أو مقارنة الصور المتعددة.

13التثبيتات·0الرائج·@yonatangross

التثبيت

$npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models

كيفية تثبيت vision-language-models

ثبّت مهارة الذكاء الاصطناعي vision-language-models بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: yonatangross/orchestkit.

Integrate vision capabilities from leading multimodal models for image understanding, document analysis, and visual reasoning.

| Model | Context | Strengths | Vision Input |

| GPT-5.2 | 128K | Best general reasoning, multimodal | Up to 10 images | | Claude Opus 4.5 | 200K | Best coding, sustained agent tasks | Up to 100 images | | Gemini 2.5 Pro | 1M+ | Longest context, video analysis | 3,600 images max | | Gemini 3 Pro | 1M | Deep Think, 100% AIME 2025 | Enhanced segmentation |

GPT-5/4o، Claude 4.5، Gemini 2.5/3، Grok 4 أنماط الرؤية لتحليل الصور وفهم المستندات وضمان الجودة المرئية. يُستخدم عند تنفيذ التسميات التوضيحية للصور، أو تحليل المستندات/المخططات، أو مقارنة الصور المتعددة. المصدر: yonatangross/orchestkit.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models
الفئة
{}تحليل البيانات
موثق
أول ظهور
2026-02-01
آخر تحديث
2026-03-10

Browse more skills from yonatangross/orchestkit

إجابات سريعة

ما هي vision-language-models؟

GPT-5/4o، Claude 4.5، Gemini 2.5/3، Grok 4 أنماط الرؤية لتحليل الصور وفهم المستندات وضمان الجودة المرئية. يُستخدم عند تنفيذ التسميات التوضيحية للصور، أو تحليل المستندات/المخططات، أو مقارنة الصور المتعددة. المصدر: yonatangross/orchestkit.

كيف أثبّت vision-language-models؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/yonatangross/orchestkit