·blip-2-vision-language
</>

blip-2-vision-language

orchestra-research/ai-research-skills

Vision-Language-Pre-Training-Framework, das Encoder für eingefrorene Bilder und LLMs verbindet. Verwenden Sie es, wenn Sie Bildunterschriften, visuelle Antworten auf Fragen, Bild-Text-Abruf oder multimodalen Chat mit modernster Zero-Shot-Leistung benötigen.

15Installationen·0Trend·@orchestra-research

Installation

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language

SKILL.md

Comprehensive guide to using Salesforce's BLIP-2 for vision-language tasks with frozen image encoders and large language models.

| Model | LLM Backend | Size | Use Case |

| blip2-opt-2.7b | OPT-2.7B | 4GB | General captioning, VQA | | blip2-opt-6.7b | OPT-6.7B | 8GB | Better reasoning | | blip2-flan-t5-xl | FlanT5-XL | 5GB | Instruction following | | blip2-flan-t5-xxl | FlanT5-XXL | 13GB | Best quality |

Vision-Language-Pre-Training-Framework, das Encoder für eingefrorene Bilder und LLMs verbindet. Verwenden Sie es, wenn Sie Bildunterschriften, visuelle Antworten auf Fragen, Bild-Text-Abruf oder multimodalen Chat mit modernster Zero-Shot-Leistung benötigen. Quelle: orchestra-research/ai-research-skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-11
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist blip-2-vision-language?

Vision-Language-Pre-Training-Framework, das Encoder für eingefrorene Bilder und LLMs verbindet. Verwenden Sie es, wenn Sie Bildunterschriften, visuelle Antworten auf Fragen, Bild-Text-Abruf oder multimodalen Chat mit modernster Zero-Shot-Leistung benötigen. Quelle: orchestra-research/ai-research-skills.

Wie installiere ich blip-2-vision-language?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/orchestra-research/ai-research-skills