·ai-stopping-hallucinations
{}

ai-stopping-hallucinations

Evita que tu IA invente cosas. Úselo cuando su IA alucine, fabrique hechos, no se base en datos reales, no cite fuentes, haga afirmaciones sin fundamento o necesite verificar las respuestas de la IA con el material original. Cubre la aplicación de citaciones, la verificación de la fidelidad, la puesta a tierra mediante recuperación y los umbrales de confianza.

7Instalaciones·0Tendencia·@lebsral

Instalación

$npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations

Cómo instalar ai-stopping-hallucinations

Instala rápidamente el skill de IA ai-stopping-hallucinations en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: lebsral/dspy-programming-not-prompting-lms-skills.

SKILL.md

Ver original

Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.

LMs generate plausible-sounding text, not verified facts. Hallucination happens when:

The fix isn't better prompting — it's programmatic constraints that force grounding.

Evita que tu IA invente cosas. Úselo cuando su IA alucine, fabrique hechos, no se base en datos reales, no cite fuentes, haga afirmaciones sin fundamento o necesite verificar las respuestas de la IA con el material original. Cubre la aplicación de citaciones, la verificación de la fidelidad, la puesta a tierra mediante recuperación y los umbrales de confianza. Fuente: lebsral/dspy-programming-not-prompting-lms-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-02-24
Actualizado
2026-03-11

Browse more skills from lebsral/dspy-programming-not-prompting-lms-skills

Respuestas rápidas

¿Qué es ai-stopping-hallucinations?

Evita que tu IA invente cosas. Úselo cuando su IA alucine, fabrique hechos, no se base en datos reales, no cite fuentes, haga afirmaciones sin fundamento o necesite verificar las respuestas de la IA con el material original. Cubre la aplicación de citaciones, la verificación de la fidelidad, la puesta a tierra mediante recuperación y los umbrales de confianza. Fuente: lebsral/dspy-programming-not-prompting-lms-skills.

¿Cómo instalo ai-stopping-hallucinations?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/lebsral/dspy-programming-not-prompting-lms-skills

Detalles

Categoría
{}Análisis de Datos
Fuente
skills.sh
Primera vez visto
2026-02-24