·multimodal-llm
</>

multimodal-llm

yonatangross/orchestkit

비전, 오디오 및 다중 모드 LLM 통합 패턴. 이미지 처리, 오디오 텍스트 변환, 음성 생성 또는 다중 모드 AI 파이프라인 구축 시 사용합니다.

8설치·2트렌드·@yonatangross

설치

$npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm

SKILL.md

Integrate vision and audio capabilities from leading multimodal models. Covers image analysis, document understanding, real-time voice agents, speech-to-text, and text-to-speech.

| Category | Rules | Impact | When to Use |

| Vision: Image Analysis | 1 | HIGH | Image captioning, VQA, multi-image comparison, object detection | | Vision: Document Understanding | 1 | HIGH | OCR, chart/diagram analysis, PDF processing, table extraction | | Vision: Model Selection | 1 | MEDIUM | Choosing provider, cost optimization, image size limits |

비전, 오디오 및 다중 모드 LLM 통합 패턴. 이미지 처리, 오디오 텍스트 변환, 음성 생성 또는 다중 모드 AI 파이프라인 구축 시 사용합니다. 출처: yonatangross/orchestkit.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm
카테고리
</>개발 도구
인증됨
최초 등록
2026-02-17
업데이트
2026-02-18

빠른 답변

multimodal-llm이란?

비전, 오디오 및 다중 모드 LLM 통합 패턴. 이미지 처리, 오디오 텍스트 변환, 음성 생성 또는 다중 모드 AI 파이프라인 구축 시 사용합니다. 출처: yonatangross/orchestkit.

multimodal-llm 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/yonatangross/orchestkit --skill multimodal-llm 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/yonatangross/orchestkit