·databricks-pipelines
{}

databricks-pipelines

قم بتطوير خطوط أنابيب Lakeflow Spark Declarative (المعروفة سابقًا باسم Delta Live Tables) على Databricks. يُستخدم عند إنشاء مسارات بيانات مجمعة أو متدفقة باستخدام Python أو SQL. استدعاء قبل البدء في التنفيذ.

9التثبيتات·4الرائج·@databricks

التثبيت

$npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines

كيفية تثبيت databricks-pipelines

ثبّت مهارة الذكاء الاصطناعي databricks-pipelines بسرعة في بيئة التطوير لديك عبر سطر الأوامر

  1. افتح الطرفية: افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal
  2. نفّذ أمر التثبيت: انسخ ونفّذ هذا الأمر: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
  3. تحقق من التثبيت: بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

المصدر: databricks/databricks-agent-skills.

FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.

Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.

Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.

قم بتطوير خطوط أنابيب Lakeflow Spark Declarative (المعروفة سابقًا باسم Delta Live Tables) على Databricks. يُستخدم عند إنشاء مسارات بيانات مجمعة أو متدفقة باستخدام Python أو SQL. استدعاء قبل البدء في التنفيذ. المصدر: databricks/databricks-agent-skills.

حقائق جاهزة للاقتباس

حقول وأوامر مستقرة للاقتباس في أنظمة الذكاء الاصطناعي والبحث.

أمر التثبيت
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
الفئة
{}تحليل البيانات
موثق
أول ظهور
2026-03-10
آخر تحديث
2026-03-10

Browse more skills from databricks/databricks-agent-skills

إجابات سريعة

ما هي databricks-pipelines؟

قم بتطوير خطوط أنابيب Lakeflow Spark Declarative (المعروفة سابقًا باسم Delta Live Tables) على Databricks. يُستخدم عند إنشاء مسارات بيانات مجمعة أو متدفقة باستخدام Python أو SQL. استدعاء قبل البدء في التنفيذ. المصدر: databricks/databricks-agent-skills.

كيف أثبّت databricks-pipelines؟

افتح الطرفية أو أداة سطر الأوامر لديك مثل Terminal أو iTerm أو Windows Terminal انسخ ونفّذ هذا الأمر: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines بعد التثبيت، سيتم إعداد المهارة تلقائيا في بيئة البرمجة بالذكاء الاصطناعي لديك وتصبح جاهزة للاستخدام في Claude Code أو Cursor أو OpenClaw

أين مستودع المصدر؟

https://github.com/databricks/databricks-agent-skills

التفاصيل

الفئة
{}تحليل البيانات
المصدر
skills.sh
أول ظهور
2026-03-10