·ai-stopping-hallucinations
{}

ai-stopping-hallucinations

Не позволяйте вашему ИИ выдумывать что-то. Используйте его, когда ваш ИИ галлюцинирует, фабрикует факты, не опирается на реальные данные, не цитирует источники, делает необоснованные утверждения или вам необходимо сверить ответы ИИ с исходным материалом. Охватывает принудительное цитирование, проверку достоверности, обоснование посредством извлечения и пороговые значения доверия.

7Установки·0Тренд·@lebsral

Установка

$npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations

Как установить ai-stopping-hallucinations

Быстро установите AI-навык ai-stopping-hallucinations в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: lebsral/dspy-programming-not-prompting-lms-skills.

Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.

LMs generate plausible-sounding text, not verified facts. Hallucination happens when:

The fix isn't better prompting — it's programmatic constraints that force grounding.

Не позволяйте вашему ИИ выдумывать что-то. Используйте его, когда ваш ИИ галлюцинирует, фабрикует факты, не опирается на реальные данные, не цитирует источники, делает необоснованные утверждения или вам необходимо сверить ответы ИИ с исходным материалом. Охватывает принудительное цитирование, проверку достоверности, обоснование посредством извлечения и пороговые значения доверия. Источник: lebsral/dspy-programming-not-prompting-lms-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
Категория
{}Аналитика
Проверено
Впервые замечено
2026-02-24
Обновлено
2026-03-11

Browse more skills from lebsral/dspy-programming-not-prompting-lms-skills

Короткие ответы

Что такое ai-stopping-hallucinations?

Не позволяйте вашему ИИ выдумывать что-то. Используйте его, когда ваш ИИ галлюцинирует, фабрикует факты, не опирается на реальные данные, не цитирует источники, делает необоснованные утверждения или вам необходимо сверить ответы ИИ с исходным материалом. Охватывает принудительное цитирование, проверку достоверности, обоснование посредством извлечения и пороговые значения доверия. Источник: lebsral/dspy-programming-not-prompting-lms-skills.

Как установить ai-stopping-hallucinations?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/lebsral/dspy-programming-not-prompting-lms-skills

Детали

Категория
{}Аналитика
Источник
skills.sh
Впервые замечено
2026-02-24