Che cos'è ai-safety-alignment?
Implementa guardrail di sicurezza completi per le applicazioni LLM, tra cui moderazione dei contenuti (API OpenAI Moderation), prevenzione del jailbreak, difesa dall'inserimento rapido, rilevamento delle PII, guardrail degli argomenti e convalida dell'output. Essenziale per le applicazioni IA di produzione che gestiscono contenuti generati dagli utenti. Utilizzare quando vengono menzionati ", guardrail, moderazione dei contenuti, prompt-injection, prevenzione del jailbreak, rilevamento pii, nemo-guardrail, openai-moderazione, llama-guard, sicurezza". Fonte: omer-metin/skills-for-antigravity.