·llava
{}

llava

ovachiever/droid-tings

대규모 언어 및 시각 보조원. 시각적 지침 조정 및 이미지 기반 대화가 가능합니다. CLIP 비전 인코더를 Vicuna/LLaMA 언어 모델과 결합합니다. 멀티턴 이미지 채팅, 시각적 질문 답변, 지시 따르기 등을 지원합니다. 비전 언어 챗봇 또는 이미지 이해 작업에 사용합니다. 대화형 이미지 분석에 가장 적합합니다.

21설치·0트렌드·@ovachiever

설치

$npx skills add https://github.com/ovachiever/droid-tings --skill llava

SKILL.md

Open-source vision-language model for conversational image understanding.

| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |

| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |

대규모 언어 및 시각 보조원. 시각적 지침 조정 및 이미지 기반 대화가 가능합니다. CLIP 비전 인코더를 Vicuna/LLaMA 언어 모델과 결합합니다. 멀티턴 이미지 채팅, 시각적 질문 답변, 지시 따르기 등을 지원합니다. 비전 언어 챗봇 또는 이미지 이해 작업에 사용합니다. 대화형 이미지 분석에 가장 적합합니다. 출처: ovachiever/droid-tings.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/ovachiever/droid-tings --skill llava
카테고리
{}데이터 분석
인증됨
최초 등록
2026-02-01
업데이트
2026-02-18

빠른 답변

llava이란?

대규모 언어 및 시각 보조원. 시각적 지침 조정 및 이미지 기반 대화가 가능합니다. CLIP 비전 인코더를 Vicuna/LLaMA 언어 모델과 결합합니다. 멀티턴 이미지 채팅, 시각적 질문 답변, 지시 따르기 등을 지원합니다. 비전 언어 챗봇 또는 이미지 이해 작업에 사용합니다. 대화형 이미지 분석에 가장 적합합니다. 출처: ovachiever/droid-tings.

llava 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/ovachiever/droid-tings --skill llava 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/ovachiever/droid-tings