·blip-2-vision-language
</>

blip-2-vision-language

orchestra-research/ai-research-skills

フリーズ画像エンコーダと LLM の橋渡しをするビジョン言語の事前トレーニング フレームワーク。画像キャプション、視覚的な質問応答、画像テキストの取得、または最先端のゼロショット パフォーマンスを備えたマルチモーダル チャットが必要な場合に使用します。

16インストール·1トレンド·@orchestra-research

インストール

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language

SKILL.md

Comprehensive guide to using Salesforce's BLIP-2 for vision-language tasks with frozen image encoders and large language models.

| Model | LLM Backend | Size | Use Case |

| blip2-opt-2.7b | OPT-2.7B | 4GB | General captioning, VQA | | blip2-opt-6.7b | OPT-6.7B | 8GB | Better reasoning | | blip2-flan-t5-xl | FlanT5-XL | 5GB | Instruction following | | blip2-flan-t5-xxl | FlanT5-XXL | 13GB | Best quality |

フリーズ画像エンコーダと LLM の橋渡しをするビジョン言語の事前トレーニング フレームワーク。画像キャプション、視覚的な質問応答、画像テキストの取得、または最先端のゼロショット パフォーマンスを備えたマルチモーダル チャットが必要な場合に使用します。 ソース: orchestra-research/ai-research-skills。

原文を見る

引用可能な情報

AI/検索での引用用の安定したフィールドとコマンド。

インストールコマンド
npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language
カテゴリ
</>開発ツール
認証済み
初回登録
2026-02-11
更新日
2026-02-18

クイックアンサー

blip-2-vision-language とは?

フリーズ画像エンコーダと LLM の橋渡しをするビジョン言語の事前トレーニング フレームワーク。画像キャプション、視覚的な質問応答、画像テキストの取得、または最先端のゼロショット パフォーマンスを備えたマルチモーダル チャットが必要な場合に使用します。 ソース: orchestra-research/ai-research-skills。

blip-2-vision-language のインストール方法は?

ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります

ソースリポジトリはどこですか?

https://github.com/orchestra-research/ai-research-skills