·clip
</>

clip

ovachiever/droid-tings

Das Modell von OpenAI verbindet Vision und Sprache. Ermöglicht Zero-Shot-Bildklassifizierung, Bild-Text-Abgleich und modalübergreifenden Abruf. Auf 400 Millionen Bild-Text-Paare trainiert. Verwendung für Bildsuche, Inhaltsmoderation oder Vision-Sprachaufgaben ohne Feinabstimmung. Am besten für allgemeines Bildverständnis geeignet.

22Installationen·0Trend·@ovachiever

Installation

$npx skills add https://github.com/ovachiever/droid-tings --skill clip

SKILL.md

| RN50 | 102M | Fast | Good | | ViT-B/32 | 151M | Medium | Better | | ViT-L/14 | 428M | Slow | Best |

| Image encoding | 200ms | 20ms | | Text encoding | 50ms | 5ms | | Similarity compute | <1ms | <1ms |

Das Modell von OpenAI verbindet Vision und Sprache. Ermöglicht Zero-Shot-Bildklassifizierung, Bild-Text-Abgleich und modalübergreifenden Abruf. Auf 400 Millionen Bild-Text-Paare trainiert. Verwendung für Bildsuche, Inhaltsmoderation oder Vision-Sprachaufgaben ohne Feinabstimmung. Am besten für allgemeines Bildverständnis geeignet. Quelle: ovachiever/droid-tings.

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill clip Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Original anzeigen

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/ovachiever/droid-tings --skill clip
Kategorie
</>Entwicklung
Verifiziert
Erstes Auftreten
2026-02-01
Aktualisiert
2026-02-18

Schnelle Antworten

Was ist clip?

Das Modell von OpenAI verbindet Vision und Sprache. Ermöglicht Zero-Shot-Bildklassifizierung, Bild-Text-Abgleich und modalübergreifenden Abruf. Auf 400 Millionen Bild-Text-Paare trainiert. Verwendung für Bildsuche, Inhaltsmoderation oder Vision-Sprachaufgaben ohne Feinabstimmung. Am besten für allgemeines Bildverständnis geeignet. Quelle: ovachiever/droid-tings.

Wie installiere ich clip?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/ovachiever/droid-tings --skill clip Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor

Wo ist das Quell-Repository?

https://github.com/ovachiever/droid-tings