·ai-stopping-hallucinations
{}

ai-stopping-hallucinations

أوقف الذكاء الاصطناعي الخاص بك عن اختلاق الأشياء. يُستخدم عندما يهذي الذكاء الاصطناعي الخاص بك، أو يختلق الحقائق، أو لا يعتمد على بيانات حقيقية، أو لا يستشهد بمصادر، أو يقدم ادعاءات غير مدعومة، أو عندما تحتاج إلى التحقق من استجابات الذكاء الاصطناعي مقابل المواد المصدر. يغطي إنفاذ الاقتباس، والتحقق من الإخلاص، والتأريض عن طريق الاسترجاع، وحدود الثقة.

7التثبيتات·0الرائج·@lebsral

التثبيت

$npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations

كيفية تثبيت ai-stopping-hallucinations

ثبّت مهارة الذكاء الاصطناعي ai-stopping-hallucinations بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: lebsral/dspy-programming-not-prompting-lms-skills.

Guide the user through making their AI factually grounded. The core principle: never trust a bare LM output — always verify against sources.

LMs generate plausible-sounding text, not verified facts. Hallucination happens when:

The fix isn't better prompting — it's programmatic constraints that force grounding.

أوقف الذكاء الاصطناعي الخاص بك عن اختلاق الأشياء. يُستخدم عندما يهذي الذكاء الاصطناعي الخاص بك، أو يختلق الحقائق، أو لا يعتمد على بيانات حقيقية، أو لا يستشهد بمصادر، أو يقدم ادعاءات غير مدعومة، أو عندما تحتاج إلى التحقق من استجابات الذكاء الاصطناعي مقابل المواد المصدر. يغطي إنفاذ الاقتباس، والتحقق من الإخلاص، والتأريض عن طريق الاسترجاع، وحدود الثقة. المصدر: lebsral/dspy-programming-not-prompting-lms-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations
الفئة
{}تحليل البيانات
موثق
أول ظهور
2026-02-24
آخر تحديث
2026-03-11

Browse more skills from lebsral/dspy-programming-not-prompting-lms-skills

إجابات سريعة

ما هي ai-stopping-hallucinations؟

أوقف الذكاء الاصطناعي الخاص بك عن اختلاق الأشياء. يُستخدم عندما يهذي الذكاء الاصطناعي الخاص بك، أو يختلق الحقائق، أو لا يعتمد على بيانات حقيقية، أو لا يستشهد بمصادر، أو يقدم ادعاءات غير مدعومة، أو عندما تحتاج إلى التحقق من استجابات الذكاء الاصطناعي مقابل المواد المصدر. يغطي إنفاذ الاقتباس، والتحقق من الإخلاص، والتأريض عن طريق الاسترجاع، وحدود الثقة. المصدر: lebsral/dspy-programming-not-prompting-lms-skills.

كيف أثبّت ai-stopping-hallucinations؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/lebsral/dspy-programming-not-prompting-lms-skills --skill ai-stopping-hallucinations بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/lebsral/dspy-programming-not-prompting-lms-skills

التفاصيل

الفئة
{}تحليل البيانات
المصدر
skills.sh
أول ظهور
2026-02-24