Build content moderation applications using the Azure AI Content Safety SDK for Java.
| Hate | Discriminatory language based on identity groups | | Sexual | Sexual content, relationships, acts | | Violence | Physical harm, weapons, injury | | Self-harm | Self-injury, suicide-related content |
Crea applicazioni di moderazione dei contenuti con Azure AI Content Safety SDK per Java. Da utilizzare quando si implementa l'analisi di testo/immagini, la gestione delle liste bloccate o il rilevamento di danni derivanti da odio, violenza, contenuti di natura sessuale e autolesionismo. Fonte: sickn33/antigravity-awesome-skills.
Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill azure-ai-contentsafety-java Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw