·ai-stopping-hallucinations
{}

ai-stopping-hallucinations

Impedisci alla tua IA di inventare cose. Da utilizzare quando la tua IA ha allucinazioni, fabbrica fatti, non è fondata su dati reali, non cita fonti, fa affermazioni non supportate o hai bisogno di verificare le risposte dell'IA rispetto al materiale originale. Copre l'applicazione delle citazioni, la verifica della fedeltà, il radicamento tramite recupero e le soglie di confidenza.

7Installazioni·0Tendenza·@lebsral

Installazione

$npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations

Come installare ai-stopping-hallucinations

Installa rapidamente la skill AI ai-stopping-hallucinations nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: lebsral/dspy-programming-not-prompting-lms-skills.

Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.

LMs generate plausible-sounding text, not verified facts. Hallucination happens when:

The fix isn't better prompting — it's programmatic constraints that force grounding.

Impedisci alla tua IA di inventare cose. Da utilizzare quando la tua IA ha allucinazioni, fabbrica fatti, non è fondata su dati reali, non cita fonti, fa affermazioni non supportate o hai bisogno di verificare le risposte dell'IA rispetto al materiale originale. Copre l'applicazione delle citazioni, la verifica della fedeltà, il radicamento tramite recupero e le soglie di confidenza. Fonte: lebsral/dspy-programming-not-prompting-lms-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
Categoria
{}Analisi
Verificato
Prima apparizione
2026-02-24
Aggiornato
2026-03-11

Browse more skills from lebsral/dspy-programming-not-prompting-lms-skills

Risposte rapide

Che cos'è ai-stopping-hallucinations?

Impedisci alla tua IA di inventare cose. Da utilizzare quando la tua IA ha allucinazioni, fabbrica fatti, non è fondata su dati reali, non cita fonti, fa affermazioni non supportate o hai bisogno di verificare le risposte dell'IA rispetto al materiale originale. Copre l'applicazione delle citazioni, la verifica della fedeltà, il radicamento tramite recupero e le soglie di confidenza. Fonte: lebsral/dspy-programming-not-prompting-lms-skills.

Come installo ai-stopping-hallucinations?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/lebsral/dspy-programming-not-prompting-lms-skills

Dettagli

Categoria
{}Analisi
Fonte
skills.sh
Prima apparizione
2026-02-24