·ai-stopping-hallucinations
{}

ai-stopping-hallucinations

Empêchez votre IA d’inventer des choses. À utiliser lorsque votre IA hallucine, fabrique des faits, n'est pas fondée sur des données réelles, ne cite pas de sources, ne fait pas d'affirmations non étayées ou si vous devez vérifier les réponses de l'IA par rapport au matériel source. Couvre l'application des citations, la vérification de la fidélité, la mise à la terre via la récupération et les seuils de confiance.

7Installations·0Tendance·@lebsral

Installation

$npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations

Comment installer ai-stopping-hallucinations

Installez rapidement le skill IA ai-stopping-hallucinations dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : lebsral/dspy-programming-not-prompting-lms-skills.

Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.

LMs generate plausible-sounding text, not verified facts. Hallucination happens when:

The fix isn't better prompting — it's programmatic constraints that force grounding.

Empêchez votre IA d’inventer des choses. À utiliser lorsque votre IA hallucine, fabrique des faits, n'est pas fondée sur des données réelles, ne cite pas de sources, ne fait pas d'affirmations non étayées ou si vous devez vérifier les réponses de l'IA par rapport au matériel source. Couvre l'application des citations, la vérification de la fidélité, la mise à la terre via la récupération et les seuils de confiance. Source : lebsral/dspy-programming-not-prompting-lms-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-02-24
Mis à jour
2026-03-11

Browse more skills from lebsral/dspy-programming-not-prompting-lms-skills

Réponses rapides

Qu'est-ce que ai-stopping-hallucinations ?

Empêchez votre IA d’inventer des choses. À utiliser lorsque votre IA hallucine, fabrique des faits, n'est pas fondée sur des données réelles, ne cite pas de sources, ne fait pas d'affirmations non étayées ou si vous devez vérifier les réponses de l'IA par rapport au matériel source. Couvre l'application des citations, la vérification de la fidélité, la mise à la terre via la récupération et les seuils de confiance. Source : lebsral/dspy-programming-not-prompting-lms-skills.

Comment installer ai-stopping-hallucinations ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/lebsral/dspy-programming-not-prompting-lms-skills

Détails

Catégorie
{}Analyse de Données
Source
skills.sh
Première apparition
2026-02-24