·blip-2-vision-language
</>

blip-2-vision-language

orchestra-research/ai-research-skills

Marco de preentrenamiento del lenguaje visual que une codificadores de imágenes congeladas y LLM. Úselo cuando necesite subtítulos de imágenes, respuesta visual a preguntas, recuperación de texto de imágenes o chat multimodal con rendimiento de última generación.

16Instalaciones·1Tendencia·@orchestra-research

Instalación

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language

SKILL.md

Comprehensive guide to using Salesforce's BLIP-2 for vision-language tasks with frozen image encoders and large language models.

| Model | LLM Backend | Size | Use Case |

| blip2-opt-2.7b | OPT-2.7B | 4GB | General captioning, VQA | | blip2-opt-6.7b | OPT-6.7B | 8GB | Better reasoning | | blip2-flan-t5-xl | FlanT5-XL | 5GB | Instruction following | | blip2-flan-t5-xxl | FlanT5-XXL | 13GB | Best quality |

Marco de preentrenamiento del lenguaje visual que une codificadores de imágenes congeladas y LLM. Úselo cuando necesite subtítulos de imágenes, respuesta visual a preguntas, recuperación de texto de imágenes o chat multimodal con rendimiento de última generación. Fuente: orchestra-research/ai-research-skills.

Ver original

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language
Categoría
</>Desarrollo
Verificado
Primera vez visto
2026-02-11
Actualizado
2026-02-18

Respuestas rápidas

¿Qué es blip-2-vision-language?

Marco de preentrenamiento del lenguaje visual que une codificadores de imágenes congeladas y LLM. Úselo cuando necesite subtítulos de imágenes, respuesta visual a preguntas, recuperación de texto de imágenes o chat multimodal con rendimiento de última generación. Fuente: orchestra-research/ai-research-skills.

¿Cómo instalo blip-2-vision-language?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code o Cursor

¿Dónde está el repositorio de origen?

https://github.com/orchestra-research/ai-research-skills