什么是 databricks-pipelines?
在 Databricks 上开发 Lakeflow Spark 声明式管道(以前称为 Delta Live Tables)。使用 Python 或 SQL 构建批处理或流数据管道时使用。在开始实施之前调用。 来源:databricks/databricks-agent-skills。
在 Databricks 上开发 Lakeflow Spark 声明式管道(以前称为 Delta Live Tables)。使用 Python 或 SQL 构建批处理或流数据管道时使用。在开始实施之前调用。
通过命令行快速安装 databricks-pipelines AI 技能到你的开发环境
来源:databricks/databricks-agent-skills。
FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.
Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.
Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.
在 Databricks 上开发 Lakeflow Spark 声明式管道(以前称为 Delta Live Tables)。使用 Python 或 SQL 构建批处理或流数据管道时使用。在开始实施之前调用。 来源:databricks/databricks-agent-skills。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines在 Databricks 上开发 Lakeflow Spark 声明式管道(以前称为 Delta Live Tables)。使用 Python 或 SQL 构建批处理或流数据管道时使用。在开始实施之前调用。 来源:databricks/databricks-agent-skills。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/databricks/databricks-agent-skills