·llava
{}

llava

ovachiever/droid-tings

Großer Sprach- und Sehassistent. Ermöglicht die Abstimmung visueller Anweisungen und bildbasierte Gespräche. Kombiniert CLIP-Vision-Encoder mit Vicuna/LLaMA-Sprachmodellen. Unterstützt Multi-Turn-Bild-Chat, visuelle Beantwortung von Fragen und das Befolgen von Anweisungen. Verwendung für Vision-Language-Chatbots oder Bildverständnisaufgaben. Am besten für die Analyse von Gesprächsbildern geeignet.

21Installationen·0Trend·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill llava

SKILL.md

Open-source vision-language model for conversational image understanding.

| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |

| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |

Großer Sprach- und Sehassistent. Ermöglicht die Abstimmung visueller Anweisungen und bildbasierte Gespräche. Kombiniert CLIP-Vision-Encoder mit Vicuna/LLaMA-Sprachmodellen. Unterstützt Multi-Turn-Bild-Chat, visuelle Beantwortung von Fragen und das Befolgen von Anweisungen. Verwendung für Vision-Language-Chatbots oder Bildverständnisaufgaben. Am besten für die Analyse von Gesprächsbildern geeignet. Quelle: ovachiever/droid-tings.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill llava
Kategorie
{}Datenanalyse
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist llava?

Großer Sprach- und Sehassistent. Ermöglicht die Abstimmung visueller Anweisungen und bildbasierte Gespräche. Kombiniert CLIP-Vision-Encoder mit Vicuna/LLaMA-Sprachmodellen. Unterstützt Multi-Turn-Bild-Chat, visuelle Beantwortung von Fragen und das Befolgen von Anweisungen. Verwendung für Vision-Language-Chatbots oder Bildverständnisaufgaben. Am besten für die Analyse von Gesprächsbildern geeignet. Quelle: ovachiever/droid-tings.

Wie installiere ich llava?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill llava Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/ovachiever/droid-tings