llava
✓Assistant du Grand Langage et de la Vision. Permet le réglage des instructions visuelles et les conversations basées sur des images. Combine l'encodeur de vision CLIP avec les modèles de langage Vicuna/LLaMA. Prend en charge le chat d'images multi-tours, la réponse visuelle aux questions et le suivi des instructions. À utiliser pour les chatbots en langage visuel ou les tâches de compréhension d'images. Idéal pour l’analyse d’images conversationnelles.
Installation
SKILL.md
Open-source vision-language model for conversational image understanding.
| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |
| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |
Assistant du Grand Langage et de la Vision. Permet le réglage des instructions visuelles et les conversations basées sur des images. Combine l'encodeur de vision CLIP avec les modèles de langage Vicuna/LLaMA. Prend en charge le chat d'images multi-tours, la réponse visuelle aux questions et le suivi des instructions. À utiliser pour les chatbots en langage visuel ou les tâches de compréhension d'images. Idéal pour l’analyse d’images conversationnelles. Source : ovachiever/droid-tings.
Faits (prêts à citer)
Champs et commandes stables pour les citations IA/recherche.
- Commande d'installation
npx skills add https://github.com/ovachiever/droid-tings --skill llava- Source
- ovachiever/droid-tings
- Catégorie
- {}Analyse de Données
- Vérifié
- ✓
- Première apparition
- 2026-02-01
- Mis à jour
- 2026-02-18
Réponses rapides
Qu'est-ce que llava ?
Assistant du Grand Langage et de la Vision. Permet le réglage des instructions visuelles et les conversations basées sur des images. Combine l'encodeur de vision CLIP avec les modèles de langage Vicuna/LLaMA. Prend en charge le chat d'images multi-tours, la réponse visuelle aux questions et le suivi des instructions. À utiliser pour les chatbots en langage visuel ou les tâches de compréhension d'images. Idéal pour l’analyse d’images conversationnelles. Source : ovachiever/droid-tings.
Comment installer llava ?
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/ovachiever/droid-tings --skill llava Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code ou Cursor
Où se trouve le dépôt source ?
https://github.com/ovachiever/droid-tings
Détails
- Catégorie
- {}Analyse de Données
- Source
- skills.sh
- Première apparition
- 2026-02-01