·llava
{}

llava

ovachiever/droid-tings

Asistente de Lenguaje y Visión de gran tamaño. Permite ajustar instrucciones visuales y conversaciones basadas en imágenes. Combina el codificador de visión CLIP con los modelos de lenguaje Vicuña/LLaMA. Admite chat de imágenes de varios turnos, respuesta visual a preguntas y seguimiento de instrucciones. Úselo para chatbots de lenguaje visual o tareas de comprensión de imágenes. Lo mejor para el análisis de imágenes conversacionales.

21Instalaciones·0Tendencia·@ovachiever

Instalación

$npx skills add https://github.com/ovachiever/droid-tings --skill llava

SKILL.md

Open-source vision-language model for conversational image understanding.

| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |

| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |

Asistente de Lenguaje y Visión de gran tamaño. Permite ajustar instrucciones visuales y conversaciones basadas en imágenes. Combina el codificador de visión CLIP con los modelos de lenguaje Vicuña/LLaMA. Admite chat de imágenes de varios turnos, respuesta visual a preguntas y seguimiento de instrucciones. Úselo para chatbots de lenguaje visual o tareas de comprensión de imágenes. Lo mejor para el análisis de imágenes conversacionales. Fuente: ovachiever/droid-tings.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/ovachiever/droid-tings --skill llava
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-02-01
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es llava?

Asistente de Lenguaje y Visión de gran tamaño. Permite ajustar instrucciones visuales y conversaciones basadas en imágenes. Combina el codificador de visión CLIP con los modelos de lenguaje Vicuña/LLaMA. Admite chat de imágenes de varios turnos, respuesta visual a preguntas y seguimiento de instrucciones. Úselo para chatbots de lenguaje visual o tareas de comprensión de imágenes. Lo mejor para el análisis de imágenes conversacionales. Fuente: ovachiever/droid-tings.

¿Cómo instalo llava?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/ovachiever/droid-tings --skill llava Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/ovachiever/droid-tings