llava
✓대규모 언어 및 시각 보조원. 시각적 지침 조정 및 이미지 기반 대화가 가능합니다. CLIP 비전 인코더를 Vicuna/LLaMA 언어 모델과 결합합니다. 멀티턴 이미지 채팅, 시각적 질문 답변, 지시 따르기 등을 지원합니다. 비전 언어 챗봇 또는 이미지 이해 작업에 사용합니다. 대화형 이미지 분석에 가장 적합합니다.
SKILL.md
Open-source vision-language model for conversational image understanding.
| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |
| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |
대규모 언어 및 시각 보조원. 시각적 지침 조정 및 이미지 기반 대화가 가능합니다. CLIP 비전 인코더를 Vicuna/LLaMA 언어 모델과 결합합니다. 멀티턴 이미지 채팅, 시각적 질문 답변, 지시 따르기 등을 지원합니다. 비전 언어 챗봇 또는 이미지 이해 작업에 사용합니다. 대화형 이미지 분석에 가장 적합합니다. 출처: ovachiever/droid-tings.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/ovachiever/droid-tings --skill llava- 카테고리
- {}데이터 분석
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
llava이란?
대규모 언어 및 시각 보조원. 시각적 지침 조정 및 이미지 기반 대화가 가능합니다. CLIP 비전 인코더를 Vicuna/LLaMA 언어 모델과 결합합니다. 멀티턴 이미지 채팅, 시각적 질문 답변, 지시 따르기 등을 지원합니다. 비전 언어 챗봇 또는 이미지 이해 작업에 사용합니다. 대화형 이미지 분석에 가장 적합합니다. 출처: ovachiever/droid-tings.
llava 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/ovachiever/droid-tings --skill llava 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/ovachiever/droid-tings
상세
- 카테고리
- {}데이터 분석
- 출처
- skills.sh
- 최초 등록
- 2026-02-01