ما هي multimodal-llm؟
أنماط تكامل الرؤية والصوت والوسائط المتعددة LLM. يُستخدم عند معالجة الصور، أو نسخ الصوت، أو إنشاء الكلام، أو إنشاء خطوط أنابيب AI متعددة الوسائط. المصدر: yonatangross/orchestkit.
أنماط تكامل الرؤية والصوت والوسائط المتعددة LLM. يُستخدم عند معالجة الصور، أو نسخ الصوت، أو إنشاء الكلام، أو إنشاء خطوط أنابيب AI متعددة الوسائط.
ثبّت مهارة الذكاء الاصطناعي multimodal-llm بسرعة في بيئة التطوير لديك عبر سطر الأوامر
المصدر: yonatangross/orchestkit.
Integrate vision and audio capabilities from leading multimodal models. Covers image analysis, document understanding, real-time voice agents, speech-to-text, and text-to-speech.
| Category | Rules | Impact | When to Use |
| Vision: Image Analysis | 1 | HIGH | Image captioning, VQA, multi-image comparison, object detection | | Vision: Document Understanding | 1 | HIGH | OCR, chart/diagram analysis, PDF processing, table extraction | | Vision: Model Selection | 1 | MEDIUM | Choosing provider, cost optimization, image size limits |
أنماط تكامل الرؤية والصوت والوسائط المتعددة LLM. يُستخدم عند معالجة الصور، أو نسخ الصوت، أو إنشاء الكلام، أو إنشاء خطوط أنابيب AI متعددة الوسائط. المصدر: yonatangross/orchestkit.
حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.
npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llmأنماط تكامل الرؤية والصوت والوسائط المتعددة LLM. يُستخدم عند معالجة الصور، أو نسخ الصوت، أو إنشاء الكلام، أو إنشاء خطوط أنابيب AI متعددة الوسائط. المصدر: yonatangross/orchestkit.
افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw
https://github.com/yonatangross/orchestkit