·clip-aware-embeddings
</>

clip-aware-embeddings

erichowens/some_claude_skills

Semantischer Bild-Text-Abgleich mit CLIP und Alternativen. Verwendung für Bildsuche, Zero-Shot-Klassifizierung und Ähnlichkeitsabgleich. NICHT zum Zählen von Objekten, zur feinkörnigen Klassifizierung (Prominente, Automodelle), zum räumlichen Denken oder für kompositorische Abfragen. Aktivieren Sie „CLIP“, „Einbettungen“, „Bildähnlichkeit“, „semantische Suche“, „Zero-Shot-Klassifizierung“, „Bild-Text-Matching“.

17Installationen·0Trend·@erichowens

Installation

$npx skills add https://github.com/erichowens/some_claude_skills --skill clip-aware-embeddings

SKILL.md

Smart image-text matching that knows when CLIP works and when to use alternatives.

| Firecrawl | Research latest CLIP alternatives and benchmarks | | Hugging Face (if configured) | Access model cards and documentation |

Why wrong: CLIP's architecture collapses spatial information into a single vector. It literally cannot count.

Semantischer Bild-Text-Abgleich mit CLIP und Alternativen. Verwendung für Bildsuche, Zero-Shot-Klassifizierung und Ähnlichkeitsabgleich. NICHT zum Zählen von Objekten, zur feinkörnigen Klassifizierung (Prominente, Automodelle), zum räumlichen Denken oder für kompositorische Abfragen. Aktivieren Sie „CLIP“, „Einbettungen“, „Bildähnlichkeit“, „semantische Suche“, „Zero-Shot-Klassifizierung“, „Bild-Text-Matching“. Quelle: erichowens/some_claude_skills.

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/erichowens/some_claude_skills --skill clip-aware-embeddings
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist clip-aware-embeddings?

Semantischer Bild-Text-Abgleich mit CLIP und Alternativen. Verwendung für Bildsuche, Zero-Shot-Klassifizierung und Ähnlichkeitsabgleich. NICHT zum Zählen von Objekten, zur feinkörnigen Klassifizierung (Prominente, Automodelle), zum räumlichen Denken oder für kompositorische Abfragen. Aktivieren Sie „CLIP“, „Einbettungen“, „Bildähnlichkeit“, „semantische Suche“, „Zero-Shot-Klassifizierung“, „Bild-Text-Matching“. Quelle: erichowens/some_claude_skills.

Wie installiere ich clip-aware-embeddings?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/erichowens/some_claude_skills --skill clip-aware-embeddings Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/erichowens/some_claude_skills