llava
✓Großer Sprach- und Sehassistent. Ermöglicht die Abstimmung visueller Anweisungen und bildbasierte Gespräche. Kombiniert CLIP-Vision-Encoder mit Vicuna/LLaMA-Sprachmodellen. Unterstützt Multi-Turn-Bild-Chat, visuelle Beantwortung von Fragen und das Befolgen von Anweisungen. Verwendung für Vision-Language-Chatbots oder Bildverständnisaufgaben. Am besten für die Analyse von Gesprächsbildern geeignet.
Installation
SKILL.md
Open-source vision-language model for conversational image understanding.
| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |
| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |
Großer Sprach- und Sehassistent. Ermöglicht die Abstimmung visueller Anweisungen und bildbasierte Gespräche. Kombiniert CLIP-Vision-Encoder mit Vicuna/LLaMA-Sprachmodellen. Unterstützt Multi-Turn-Bild-Chat, visuelle Beantwortung von Fragen und das Befolgen von Anweisungen. Verwendung für Vision-Language-Chatbots oder Bildverständnisaufgaben. Am besten für die Analyse von Gesprächsbildern geeignet. Quelle: ovachiever/droid-tings.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill llava- Quelle
- ovachiever/droid-tings
- Kategorie
- {}Datenanalyse
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist llava?
Großer Sprach- und Sehassistent. Ermöglicht die Abstimmung visueller Anweisungen und bildbasierte Gespräche. Kombiniert CLIP-Vision-Encoder mit Vicuna/LLaMA-Sprachmodellen. Unterstützt Multi-Turn-Bild-Chat, visuelle Beantwortung von Fragen und das Befolgen von Anweisungen. Verwendung für Vision-Language-Chatbots oder Bildverständnisaufgaben. Am besten für die Analyse von Gesprächsbildern geeignet. Quelle: ovachiever/droid-tings.
Wie installiere ich llava?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill llava Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/ovachiever/droid-tings
Details
- Kategorie
- {}Datenanalyse
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01