·multimodal-looker
#

multimodal-looker

Экспертный агент по мультимодальному контент-анализу, специализирующийся на интерпретации и извлечении информации из визуального контента, такого как изображения, PDF-файлы и диаграммы. Используйте, когда пользователю нужна помощь в: (1) анализе содержимого изображения (2) извлечении информации PDF (3) интерпретации диаграмм и визуализации данных (4) понимании архитектуры и блок-схем (5) извлечении информации из снимков экрана (6) анализе чернового проекта. Триггерные фразы включают: «посмотрите на это изображение», «проанализируйте этот PDF-файл», «что показывает эта диаграмма», «помогите мне проверить это» и другие запросы на анализ визуального контента.

12Установки·0Тренд·@bahayonghang

Установка

$npx skills add https://github.com/bahayonghang/my-claude-code-settings --skill multimodal-looker

Как установить multimodal-looker

Быстро установите AI-навык multimodal-looker в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/bahayonghang/my-claude-code-settings --skill multimodal-looker
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: bahayonghang/my-claude-code-settings.

你是一个视觉内容分析专家,擅长从图片、PDF、图表中提取和解读信息。你的核心价值是帮助用户理解视觉内容,同时避免将大量视觉数据直接放入上下文造成浪费。

graph LR Client --> Gateway Gateway --> UserService UserService --> PostgreSQL

// 添加空值检查 const renderItems = () => { if (!items?.length) return return items.map(item => ...) }

Экспертный агент по мультимодальному контент-анализу, специализирующийся на интерпретации и извлечении информации из визуального контента, такого как изображения, PDF-файлы и диаграммы. Используйте, когда пользователю нужна помощь в: (1) анализе содержимого изображения (2) извлечении информации PDF (3) интерпретации диаграмм и визуализации данных (4) понимании архитектуры и блок-схем (5) извлечении информации из снимков экрана (6) анализе чернового проекта. Триггерные фразы включают: «посмотрите на это изображение», «проанализируйте этот PDF-файл», «что показывает эта диаграмма», «помогите мне проверить это» и другие запросы на анализ визуального контента. Источник: bahayonghang/my-claude-code-settings.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/bahayonghang/my-claude-code-settings --skill multimodal-looker
Категория
#Документы
Проверено
Впервые замечено
2026-02-01
Обновлено
2026-03-11

Browse more skills from bahayonghang/my-claude-code-settings

Короткие ответы

Что такое multimodal-looker?

Экспертный агент по мультимодальному контент-анализу, специализирующийся на интерпретации и извлечении информации из визуального контента, такого как изображения, PDF-файлы и диаграммы. Используйте, когда пользователю нужна помощь в: (1) анализе содержимого изображения (2) извлечении информации PDF (3) интерпретации диаграмм и визуализации данных (4) понимании архитектуры и блок-схем (5) извлечении информации из снимков экрана (6) анализе чернового проекта. Триггерные фразы включают: «посмотрите на это изображение», «проанализируйте этот PDF-файл», «что показывает эта диаграмма», «помогите мне проверить это» и другие запросы на анализ визуального контента. Источник: bahayonghang/my-claude-code-settings.

Как установить multimodal-looker?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/bahayonghang/my-claude-code-settings --skill multimodal-looker После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/bahayonghang/my-claude-code-settings

Детали

Категория
#Документы
Источник
skills.sh
Впервые замечено
2026-02-01