Amazon Bedrock Guardrails provides six safeguard policies for securing and controlling generative AI applications. It works with any foundation model (Bedrock, OpenAI, Google Gemini, self-hosted) through the ApplyGuardrail API, enabling consistent safety policies across your entire AI infrastructure.
Automated Reasoning requires a separate policy document, then association with guardrail.
| NONE | No filtering | When policy doesn't apply to direction (e.g., output for PROMPTATTACK) | | LOW | Lenient filtering | Creative applications, minimal restrictions | | MEDIUM | Balanced filtering | General-purpose applications | | HIGH | Strict filtering | Enterprise, compliance-critical applications |
Implementazione completa di Amazon Bedrock Guardrails per la sicurezza dell'intelligenza artificiale con 6 policy di salvaguardia (filtri dei contenuti, redazione delle PII, rifiuto degli argomenti, filtri delle parole, messa a terra contestuale, ragionamento automatizzato). Da utilizzare quando si implementa la moderazione dei contenuti, si rilevano attacchi tempestivi, si prevengono allucinazioni, si proteggono dati sensibili, si applicano policy di conformità o si proteggono applicazioni di intelligenza artificiale generativa con verifica matematica. Fonte: adaptationio/skrillz.