什么是 ai-stopping-hallucinations?
阻止你的人工智能胡编乱造。当您的 AI 产生幻觉、捏造事实、不以真实数据为基础、不引用来源、做出不受支持的主张,或者您需要根据源材料验证 AI 响应时使用。涵盖引文执行、真实性验证、检索基础和置信度阈值。 来源:lebsral/dspy-programming-not-prompting-lms-skills。
阻止你的人工智能胡编乱造。当您的 AI 产生幻觉、捏造事实、不以真实数据为基础、不引用来源、做出不受支持的主张,或者您需要根据源材料验证 AI 响应时使用。涵盖引文执行、真实性验证、检索基础和置信度阈值。
通过命令行快速安装 ai-stopping-hallucinations AI 技能到你的开发环境
来源:lebsral/dspy-programming-not-prompting-lms-skills。
Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.
LMs generate plausible-sounding text, not verified facts. Hallucination happens when:
The fix isn't better prompting — it's programmatic constraints that force grounding.
阻止你的人工智能胡编乱造。当您的 AI 产生幻觉、捏造事实、不以真实数据为基础、不引用来源、做出不受支持的主张,或者您需要根据源材料验证 AI 响应时使用。涵盖引文执行、真实性验证、检索基础和置信度阈值。 来源:lebsral/dspy-programming-not-prompting-lms-skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinationsBrowse more skills from lebsral/dspy-programming-not-prompting-lms-skills
阻止你的人工智能胡编乱造。当您的 AI 产生幻觉、捏造事实、不以真实数据为基础、不引用来源、做出不受支持的主张,或者您需要根据源材料验证 AI 响应时使用。涵盖引文执行、真实性验证、检索基础和置信度阈值。 来源:lebsral/dspy-programming-not-prompting-lms-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/lebsral/dspy-programming-not-prompting-lms-skills