·cognitive-bias-detection
{}

cognitive-bias-detection

Wenden Sie die Erkennung kognitiver Verzerrungen immer dann an, wenn der Benutzer (oder Claude selbst) eine Bewertung, Empfehlung oder Entscheidung abgibt, die stillschweigend durch systematische Denkfehler verzerrt werden könnte. Auslöser bei Formulierungen wie „Ich bin mir ziemlich sicher“, „offensichtlich“, „alle sind sich einig“, „wir haben schon so viel investiert“, „das hat immer funktioniert“, „nur noch ein Versuch“, „ich wusste es“, „die Daten bestätigen, was wir dachten“, „wir können jetzt nicht mehr zurück“ oder wenn die Analyse verdächtig mit dem übereinstimmt, was jemand hören wollte. Lösen Sie auch proaktiv aus, wenn Sie Entscheidungen mit hohem Risiko, Pläne mit erheblichen versunkenen Kosten oder Schlussfolgerungen bewerten, die die bestehende Position des Bewerters praktisch untermauern. Das Ziel besteht nicht darin, zu lähmen, sondern darauf hinzuweisen, wo die Argumentation gefährdet sein könnte, damit sie korrigiert werden kann.

10Installationen·2Trend·@andurilcode

Installation

$npx skills add https://github.com/andurilcode/skills --skill cognitive-bias-detection

So installieren Sie cognitive-bias-detection

Installieren Sie den KI-Skill cognitive-bias-detection schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/andurilcode/skills --skill cognitive-bias-detection
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: andurilcode/skills.

Core principle: Human (and AI) reasoning is systematically distorted by cognitive biases — predictable errors in judgment that operate below conscious awareness. The most dangerous analyses are the ones that feel most certain. This skill audits the reasoning process itself, not just the conclusions.

Confirmation Bias Seeking, interpreting, and remembering information that confirms existing beliefs. Disconfirming evidence is dismissed or reframed.

Anchoring Over-weighting the first number, estimate, or framing encountered.

Wenden Sie die Erkennung kognitiver Verzerrungen immer dann an, wenn der Benutzer (oder Claude selbst) eine Bewertung, Empfehlung oder Entscheidung abgibt, die stillschweigend durch systematische Denkfehler verzerrt werden könnte. Auslöser bei Formulierungen wie „Ich bin mir ziemlich sicher“, „offensichtlich“, „alle sind sich einig“, „wir haben schon so viel investiert“, „das hat immer funktioniert“, „nur noch ein Versuch“, „ich wusste es“, „die Daten bestätigen, was wir dachten“, „wir können jetzt nicht mehr zurück“ oder wenn die Analyse verdächtig mit dem übereinstimmt, was jemand hören wollte. Lösen Sie auch proaktiv aus, wenn Sie Entscheidungen mit hohem Risiko, Pläne mit erheblichen versunkenen Kosten oder Schlussfolgerungen bewerten, die die bestehende Position des Bewerters praktisch untermauern. Das Ziel besteht nicht darin, zu lähmen, sondern darauf hinzuweisen, wo die Argumentation gefährdet sein könnte, damit sie korrigiert werden kann. Quelle: andurilcode/skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/andurilcode/skills --skill cognitive-bias-detection
Kategorie
{}Datenanalyse
Verifiziert
Erstes Auftreten
2026-03-10
Aktualisiert
2026-03-11

Browse more skills from andurilcode/skills

Schnelle Antworten

Was ist cognitive-bias-detection?

Wenden Sie die Erkennung kognitiver Verzerrungen immer dann an, wenn der Benutzer (oder Claude selbst) eine Bewertung, Empfehlung oder Entscheidung abgibt, die stillschweigend durch systematische Denkfehler verzerrt werden könnte. Auslöser bei Formulierungen wie „Ich bin mir ziemlich sicher“, „offensichtlich“, „alle sind sich einig“, „wir haben schon so viel investiert“, „das hat immer funktioniert“, „nur noch ein Versuch“, „ich wusste es“, „die Daten bestätigen, was wir dachten“, „wir können jetzt nicht mehr zurück“ oder wenn die Analyse verdächtig mit dem übereinstimmt, was jemand hören wollte. Lösen Sie auch proaktiv aus, wenn Sie Entscheidungen mit hohem Risiko, Pläne mit erheblichen versunkenen Kosten oder Schlussfolgerungen bewerten, die die bestehende Position des Bewerters praktisch untermauern. Das Ziel besteht nicht darin, zu lähmen, sondern darauf hinzuweisen, wo die Argumentation gefährdet sein könnte, damit sie korrigiert werden kann. Quelle: andurilcode/skills.

Wie installiere ich cognitive-bias-detection?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/andurilcode/skills --skill cognitive-bias-detection Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/andurilcode/skills