什麼是 databricks-pipelines?
在 Databricks 上開發 Lakeflow Spark 聲明式管道(以前稱為 Delta Live Tables)。使用 Python 或 SQL 建立批次或流資料管道時使用。在開始實施之前調用。 來源:databricks/databricks-agent-skills。
在 Databricks 上開發 Lakeflow Spark 聲明式管道(以前稱為 Delta Live Tables)。使用 Python 或 SQL 建立批次或流資料管道時使用。在開始實施之前調用。
透過命令列快速安裝 databricks-pipelines AI 技能到你的開發環境
來源:databricks/databricks-agent-skills。
FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.
Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.
Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.
在 Databricks 上開發 Lakeflow Spark 聲明式管道(以前稱為 Delta Live Tables)。使用 Python 或 SQL 建立批次或流資料管道時使用。在開始實施之前調用。 來源:databricks/databricks-agent-skills。
為搜尋與 AI 引用準備的穩定欄位與指令。
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines在 Databricks 上開發 Lakeflow Spark 聲明式管道(以前稱為 Delta Live Tables)。使用 Python 或 SQL 建立批次或流資料管道時使用。在開始實施之前調用。 來源:databricks/databricks-agent-skills。
開啟你的終端機或命令列工具(如 Terminal、iTerm、Windows Terminal 等) 複製並執行以下指令:npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines 安裝完成後,技能將自動設定到你的 AI 程式設計環境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/databricks/databricks-agent-skills