什么是 glm-understand-image?
使用 GLM Vision MCP 进行图像理解和分析。触发条件:(1)用户请求图像分析、图像理解或图像内容描述; (2)需要识别图像中的物体、文字或场景; (3)利用GLM的视觉理解能力。 来源:thincher/awsome_skills。
使用 GLM Vision MCP 进行图像理解和分析。触发条件:(1)用户请求图像分析、图像理解或图像内容描述; (2)需要识别图像中的物体、文字或场景; (3)利用GLM的视觉理解能力。
通过命令行快速安装 glm-understand-image AI 技能到你的开发环境
来源:thincher/awsome_skills。
如果用户没有智谱 API Key,可以访问 https://www.bigmodel.cn/glm-coding?ic=OOKF4KGGTW 购买。
| imagesource | 图片路径或 URL | string (必填) | | prompt | 对图片的提问 | string (必填) |
重要提示:如果出现问题以官方说明为准 官方版说明 : https://docs.bigmodel.cn/cn/coding-plan/mcp/vision-mcp-server
使用 GLM Vision MCP 进行图像理解和分析。触发条件:(1)用户请求图像分析、图像理解或图像内容描述; (2)需要识别图像中的物体、文字或场景; (3)利用GLM的视觉理解能力。 来源:thincher/awsome_skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/thincher/awsome_skills --skill glm-understand-image使用 GLM Vision MCP 进行图像理解和分析。触发条件:(1)用户请求图像分析、图像理解或图像内容描述; (2)需要识别图像中的物体、文字或场景; (3)利用GLM的视觉理解能力。 来源:thincher/awsome_skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/thincher/awsome_skills --skill glm-understand-image 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/thincher/awsome_skills