·llava
{}

llava

ovachiever/droid-tings

Assistant du Grand Langage et de la Vision. Permet le réglage des instructions visuelles et les conversations basées sur des images. Combine l'encodeur de vision CLIP avec les modèles de langage Vicuna/LLaMA. Prend en charge le chat d'images multi-tours, la réponse visuelle aux questions et le suivi des instructions. À utiliser pour les chatbots en langage visuel ou les tâches de compréhension d'images. Idéal pour l’analyse d’images conversationnelles.

21Installations·0Tendance·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill llava

SKILL.md

Open-source vision-language model for conversational image understanding.

| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |

| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |

Assistant du Grand Langage et de la Vision. Permet le réglage des instructions visuelles et les conversations basées sur des images. Combine l'encodeur de vision CLIP avec les modèles de langage Vicuna/LLaMA. Prend en charge le chat d'images multi-tours, la réponse visuelle aux questions et le suivi des instructions. À utiliser pour les chatbots en langage visuel ou les tâches de compréhension d'images. Idéal pour l’analyse d’images conversationnelles. Source : ovachiever/droid-tings.

Voir l'original

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/ovachiever/droid-tings --skill llava
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-02-01
Mis à jour
2026-02-18

Réponses rapides

Qu'est-ce que llava ?

Assistant du Grand Langage et de la Vision. Permet le réglage des instructions visuelles et les conversations basées sur des images. Combine l'encodeur de vision CLIP avec les modèles de langage Vicuna/LLaMA. Prend en charge le chat d'images multi-tours, la réponse visuelle aux questions et le suivi des instructions. À utiliser pour les chatbots en langage visuel ou les tâches de compréhension d'images. Idéal pour l’analyse d’images conversationnelles. Source : ovachiever/droid-tings.

Comment installer llava ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill llava Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor

Où se trouve le dépôt source ?

https://github.com/ovachiever/droid-tings