·ai-stopping-hallucinations
{}

ai-stopping-hallucinations

Halten Sie Ihre KI davon ab, Dinge zu erfinden. Verwenden Sie es, wenn Ihre KI halluziniert, Fakten fabriziert, sich nicht auf echte Daten stützt, keine Quellen zitiert, unbegründete Behauptungen aufstellt oder Sie KI-Antworten anhand von Quellenmaterial überprüfen müssen. Deckt die Durchsetzung von Zitaten, die Überprüfung der Glaubwürdigkeit, die Begründung durch Retrieval und Konfidenzschwellen ab.

7Installationen·0Trend·@lebsral

Installation

$npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations

So installieren Sie ai-stopping-hallucinations

Installieren Sie den KI-Skill ai-stopping-hallucinations schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: lebsral/dspy-programming-not-prompting-lms-skills.

Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.

LMs generate plausible-sounding text, not verified facts. Hallucination happens when:

The fix isn't better prompting — it's programmatic constraints that force grounding.

Halten Sie Ihre KI davon ab, Dinge zu erfinden. Verwenden Sie es, wenn Ihre KI halluziniert, Fakten fabriziert, sich nicht auf echte Daten stützt, keine Quellen zitiert, unbegründete Behauptungen aufstellt oder Sie KI-Antworten anhand von Quellenmaterial überprüfen müssen. Deckt die Durchsetzung von Zitaten, die Überprüfung der Glaubwürdigkeit, die Begründung durch Retrieval und Konfidenzschwellen ab. Quelle: lebsral/dspy-programming-not-prompting-lms-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
Kategorie
{}Datenanalyse
Verifiziert
Erstes Auftreten
2026-02-24
Aktualisiert
2026-03-11

Browse more skills from lebsral/dspy-programming-not-prompting-lms-skills

Schnelle Antworten

Was ist ai-stopping-hallucinations?

Halten Sie Ihre KI davon ab, Dinge zu erfinden. Verwenden Sie es, wenn Ihre KI halluziniert, Fakten fabriziert, sich nicht auf echte Daten stützt, keine Quellen zitiert, unbegründete Behauptungen aufstellt oder Sie KI-Antworten anhand von Quellenmaterial überprüfen müssen. Deckt die Durchsetzung von Zitaten, die Überprüfung der Glaubwürdigkeit, die Begründung durch Retrieval und Konfidenzschwellen ab. Quelle: lebsral/dspy-programming-not-prompting-lms-skills.

Wie installiere ich ai-stopping-hallucinations?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/lebsral/dspy-programming-not-prompting-lms-skills

Details

Kategorie
{}Datenanalyse
Quelle
skills.sh
Erstes Auftreten
2026-02-24