·databricks-pipelines
{}

databricks-pipelines

Sviluppa pipeline dichiarative Lakeflow Spark (in precedenza Delta Live Tables) su Databricks. Da utilizzare durante la creazione di pipeline di dati in batch o in streaming con Python o SQL. Richiamare PRIMA di iniziare l'implementazione.

9Installazioni·2Tendenza·@databricks

Installazione

$npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines

Come installare databricks-pipelines

Installa rapidamente la skill AI databricks-pipelines nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: databricks/databricks-agent-skills.

FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.

Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.

Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.

Sviluppa pipeline dichiarative Lakeflow Spark (in precedenza Delta Live Tables) su Databricks. Da utilizzare durante la creazione di pipeline di dati in batch o in streaming con Python o SQL. Richiamare PRIMA di iniziare l'implementazione. Fonte: databricks/databricks-agent-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
Categoria
{}Analisi
Verificato
Prima apparizione
2026-03-10
Aggiornato
2026-03-11

Browse more skills from databricks/databricks-agent-skills

Risposte rapide

Che cos'è databricks-pipelines?

Sviluppa pipeline dichiarative Lakeflow Spark (in precedenza Delta Live Tables) su Databricks. Da utilizzare durante la creazione di pipeline di dati in batch o in streaming con Python o SQL. Richiamare PRIMA di iniziare l'implementazione. Fonte: databricks/databricks-agent-skills.

Come installo databricks-pipelines?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/databricks/databricks-agent-skills

Dettagli

Categoria
{}Analisi
Fonte
skills.sh
Prima apparizione
2026-03-10