databricks-pipelines とは?
Databricks で Lakeflow Spark 宣言パイプライン (以前の Delta Live Tables) を開発します。 Python または SQL を使用してバッチ データ パイプラインまたはストリーミング データ パイプラインを構築する場合に使用します。実装を開始する前に呼び出してください。 ソース: databricks/databricks-agent-skills。
Databricks で Lakeflow Spark 宣言パイプライン (以前の Delta Live Tables) を開発します。 Python または SQL を使用してバッチ データ パイプラインまたはストリーミング データ パイプラインを構築する場合に使用します。実装を開始する前に呼び出してください。
コマンドラインで databricks-pipelines AI スキルを開発環境にすばやくインストール
ソース: databricks/databricks-agent-skills。
FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.
Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.
Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.
Databricks で Lakeflow Spark 宣言パイプライン (以前の Delta Live Tables) を開発します。 Python または SQL を使用してバッチ データ パイプラインまたはストリーミング データ パイプラインを構築する場合に使用します。実装を開始する前に呼び出してください。 ソース: databricks/databricks-agent-skills。
AI/検索での引用用の安定したフィールドとコマンド。
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelinesDatabricks で Lakeflow Spark 宣言パイプライン (以前の Delta Live Tables) を開発します。 Python または SQL を使用してバッチ データ パイプラインまたはストリーミング データ パイプラインを構築する場合に使用します。実装を開始する前に呼び出してください。 ソース: databricks/databricks-agent-skills。
ターミナルまたはコマンドラインツール(Terminal、iTerm、Windows Terminal など)を開きます このコマンドをコピーして実行します: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines インストール後、スキルは自動的に AI コーディング環境に設定され、Claude Code、Cursor、OpenClaw で使用できるようになります
https://github.com/databricks/databricks-agent-skills