·blip-2-vision-language
</>

blip-2-vision-language

orchestra-research/ai-research-skills

连接冻结图像编码器和法学硕士的视觉语言预训练框架。当您需要图像字幕、视觉问答、图像文本检索或多模式聊天以及最先进的零样本性能时使用。

15安装·0热度·@orchestra-research

安装

$npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language

SKILL.md

Comprehensive guide to using Salesforce's BLIP-2 for vision-language tasks with frozen image encoders and large language models.

| Model | LLM Backend | Size | Use Case |

| blip2-opt-2.7b | OPT-2.7B | 4GB | General captioning, VQA | | blip2-opt-6.7b | OPT-6.7B | 8GB | Better reasoning | | blip2-flan-t5-xl | FlanT5-XL | 5GB | Instruction following | | blip2-flan-t5-xxl | FlanT5-XXL | 13GB | Best quality |

连接冻结图像编码器和法学硕士的视觉语言预训练框架。当您需要图像字幕、视觉问答、图像文本检索或多模式聊天以及最先进的零样本性能时使用。 来源:orchestra-research/ai-research-skills。

查看原文

可引用信息

为搜索与 AI 引用准备的稳定字段与命令。

安装命令
npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language
分类
</>开发工具
认证
收录时间
2026-02-11
更新时间
2026-02-18

快速解答

什么是 blip-2-vision-language?

连接冻结图像编码器和法学硕士的视觉语言预训练框架。当您需要图像字幕、视觉问答、图像文本检索或多模式聊天以及最先进的零样本性能时使用。 来源:orchestra-research/ai-research-skills。

如何安装 blip-2-vision-language?

打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/orchestra-research/ai-research-skills --skill blip-2-vision-language 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code 或 Cursor 中使用

这个 Skill 的源码在哪?

https://github.com/orchestra-research/ai-research-skills

详情

分类
</>开发工具
来源
skills.sh
收录时间
2026-02-11