·multimodal-llm
</>

multimodal-llm

yonatangross/orchestkit

視覺、音訊和多模式 LLM 整合模式。在處理影像、轉錄音訊、生成語音或建立多模式 AI 管道時使用。

8安裝·2熱度·@yonatangross

安裝

$npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm

SKILL.md

Integrate vision and audio capabilities from leading multimodal models. Covers image analysis, document understanding, real-time voice agents, speech-to-text, and text-to-speech.

| Category | Rules | Impact | When to Use |

| Vision: Image Analysis | 1 | HIGH | Image captioning, VQA, multi-image comparison, object detection | | Vision: Document Understanding | 1 | HIGH | OCR, chart/diagram analysis, PDF processing, table extraction | | Vision: Model Selection | 1 | MEDIUM | Choosing provider, cost optimization, image size limits |

視覺、音訊和多模式 LLM 整合模式。在處理影像、轉錄音訊、生成語音或建立多模式 AI 管道時使用。 來源:yonatangross/orchestkit。

查看原文

可引用資訊

為搜尋與 AI 引用準備的穩定欄位與指令。

安裝指令
npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm
分類
</>開發工具
認證
收錄時間
2026-02-17
更新時間
2026-02-18

快速解答

什麼是 multimodal-llm?

視覺、音訊和多模式 LLM 整合模式。在處理影像、轉錄音訊、生成語音或建立多模式 AI 管道時使用。 來源:yonatangross/orchestkit。

如何安裝 multimodal-llm?

開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code 或 Cursor 中使用

這個 Skill 的原始碼在哪?

https://github.com/yonatangross/orchestkit