llava
✓大規模な言語および視覚アシスタント。視覚的な指示の調整と画像ベースの会話を可能にします。 CLIP ビジョン エンコーダと Vicuna/LLaMA 言語モデルを組み合わせます。マルチターンの画像チャット、視覚的な質問応答、指示のフォローをサポートします。視覚言語チャットボットまたは画像理解タスクに使用します。会話の画像分析に最適です。
SKILL.md
Open-source vision-language model for conversational image understanding.
| LLaVA-v1.5-7B | 7B | 14 GB | Good | | LLaVA-v1.5-13B | 13B | 28 GB | Better | | LLaVA-v1.6-34B | 34B | 70 GB | Best |
| Model | VRAM (FP16) | VRAM (4-bit) | Speed (tokens/s) |
大規模な言語および視覚アシスタント。視覚的な指示の調整と画像ベースの会話を可能にします。 CLIP ビジョン エンコーダと Vicuna/LLaMA 言語モデルを組み合わせます。マルチターンの画像チャット、視覚的な質問応答、指示のフォローをサポートします。視覚言語チャットボットまたは画像理解タスクに使用します。会話の画像分析に最適です。 ソース: ovachiever/droid-tings。
引用可能な情報
AI/検索での引用用の安定したフィールドとコマンド。
- インストールコマンド
npx skills add https://github.com/ovachiever/droid-tings --skill llava- カテゴリ
- {}データ分析
- 認証済み
- ✓
- 初回登録
- 2026-02-01
- 更新日
- 2026-02-18
クイックアンサー
llava とは?
大規模な言語および視覚アシスタント。視覚的な指示の調整と画像ベースの会話を可能にします。 CLIP ビジョン エンコーダと Vicuna/LLaMA 言語モデルを組み合わせます。マルチターンの画像チャット、視覚的な質問応答、指示のフォローをサポートします。視覚言語チャットボットまたは画像理解タスクに使用します。会話の画像分析に最適です。 ソース: ovachiever/droid-tings。
llava のインストール方法は?
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/ovachiever/droid-tings --skill llava インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code や Cursor で使用できるようになります
ソースリポジトリはどこですか?
https://github.com/ovachiever/droid-tings
詳細
- カテゴリ
- {}データ分析
- ソース
- skills.sh
- 初回登録
- 2026-02-01