·vision-language-models
{}

vision-language-models

yonatangross/orchestkit

GPT-5/4o、Claude 4.5、Gemini 2.5/3、Grok 4 视觉模式,用于图像分析、文档理解和视觉 QA。在实现图像标题、文档/图表分析或多图像比较时使用。

14安装·0热度·@yonatangross

安装

$npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models

SKILL.md

Integrate vision capabilities from leading multimodal models for image understanding, document analysis, and visual reasoning.

| Model | Context | Strengths | Vision Input |

| GPT-5.2 | 128K | Best general reasoning, multimodal | Up to 10 images | | Claude Opus 4.5 | 200K | Best coding, sustained agent tasks | Up to 100 images | | Gemini 2.5 Pro | 1M+ | Longest context, video analysis | 3,600 images max | | Gemini 3 Pro | 1M | Deep Think, 100% AIME 2025 | Enhanced segmentation |

GPT-5/4o、Claude 4.5、Gemini 2.5/3、Grok 4 视觉模式,用于图像分析、文档理解和视觉 QA。在实现图像标题、文档/图表分析或多图像比较时使用。 来源:yonatangross/orchestkit。

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models
分类
{}数据分析
认证
收录时间
2026-02-01
更新时间
2026-02-18

快速解答

什么是 vision-language-models?

GPT-5/4o、Claude 4.5、Gemini 2.5/3、Grok 4 视觉模式,用于图像分析、文档理解和视觉 QA。在实现图像标题、文档/图表分析或多图像比较时使用。 来源:yonatangross/orchestkit。

如何安装 vision-language-models?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/yonatangross/orchestkit --skill vision-language-models 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/yonatangross/orchestkit