·llava

Asistente de Lenguaje y Visión de gran tamaño. Permite ajustar instrucciones visuales y conversaciones basadas en imágenes. Combina el codificador de visión CLIP con los modelos de lenguaje Vicuña/LLaMA. Admite chat de imágenes de varios turnos, respuesta visual a preguntas y seguimiento de instrucciones. Úselo para chatbots de lenguaje visual o tareas de comprensión de imágenes. Lo mejor para el análisis de imágenes conversacionales.

15Instalaciones·0Tendencia·@orchestra-research

Instalación

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill llava

SKILL.md

Open-source vision-language model for conversational image understanding.

| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |

| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |

Asistente de Lenguaje y Visión de gran tamaño. Permite ajustar instrucciones visuales y conversaciones basadas en imágenes. Combina el codificador de visión CLIP con los modelos de lenguaje Vicuña/LLaMA. Admite chat de imágenes de varios turnos, respuesta visual a preguntas y seguimiento de instrucciones. Úselo para chatbots de lenguaje visual o tareas de comprensión de imágenes. Lo mejor para el análisis de imágenes conversacionales. Fuente: orchestra-research/ai-research-skills.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/orchestra-research/ai-research-skills --skill llava
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-02-11
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es llava?

Asistente de Lenguaje y Visión de gran tamaño. Permite ajustar instrucciones visuales y conversaciones basadas en imágenes. Combina el codificador de visión CLIP con los modelos de lenguaje Vicuña/LLaMA. Admite chat de imágenes de varios turnos, respuesta visual a preguntas y seguimiento de instrucciones. Úselo para chatbots de lenguaje visual o tareas de comprensión de imágenes. Lo mejor para el análisis de imágenes conversacionales. Fuente: orchestra-research/ai-research-skills.

¿Cómo instalo llava?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill llava Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/orchestra-research/ai-research-skills

Detalles

Categoría
{}Análisis de Datos
Fuente
skills.sh
Primera vez visto
2026-02-11