Build content moderation applications using the Azure AI Content Safety SDK for Java.
| Hate | Discriminatory language based on identity groups | | Sexual | Sexual content, relationships, acts | | Violence | Physical harm, weapons, injury | | Self-harm | Self-injury, suicide-related content |
Créez des applications de modération de contenu avec le SDK Azure AI Content Safety pour Java. À utiliser lors de la mise en œuvre d'une analyse de texte/d'image, de la gestion de listes de blocage ou de la détection de préjudices liés à la haine, à la violence, au contenu sexuel et à l'automutilation. Source : sickn33/antigravity-awesome-skills.
Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/sickn33/antigravity-awesome-skills --skill azure-ai-contentsafety-java Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw