·databricks-pipelines
{}

databricks-pipelines

Entwickeln Sie Lakeflow Spark Declarative Pipelines (ehemals Delta Live Tables) auf Databricks. Verwendung beim Erstellen von Batch- oder Streaming-Datenpipelines mit Python oder SQL. Aufrufen, BEVOR Sie mit der Implementierung beginnen.

9Installationen·4Trend·@databricks

Installation

$npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines

So installieren Sie databricks-pipelines

Installieren Sie den KI-Skill databricks-pipelines schnell in Ihrer Entwicklungsumgebung über die Kommandozeile

  1. Terminal öffnen: Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.)
  2. Installationsbefehl ausführen: Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
  3. Installation überprüfen: Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Quelle: databricks/databricks-agent-skills.

FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.

Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.

Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.

Entwickeln Sie Lakeflow Spark Declarative Pipelines (ehemals Delta Live Tables) auf Databricks. Verwendung beim Erstellen von Batch- oder Streaming-Datenpipelines mit Python oder SQL. Aufrufen, BEVOR Sie mit der Implementierung beginnen. Quelle: databricks/databricks-agent-skills.

Fakten (zitierbereit)

Stabile Felder und Befehle für KI/Such-Zitate.

Installationsbefehl
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
Kategorie
{}Datenanalyse
Verifiziert
Erstes Auftreten
2026-03-10
Aktualisiert
2026-03-10

Browse more skills from databricks/databricks-agent-skills

Schnelle Antworten

Was ist databricks-pipelines?

Entwickeln Sie Lakeflow Spark Declarative Pipelines (ehemals Delta Live Tables) auf Databricks. Verwendung beim Erstellen von Batch- oder Streaming-Datenpipelines mit Python oder SQL. Aufrufen, BEVOR Sie mit der Implementierung beginnen. Quelle: databricks/databricks-agent-skills.

Wie installiere ich databricks-pipelines?

Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code, Cursor oder OpenClaw

Wo ist das Quell-Repository?

https://github.com/databricks/databricks-agent-skills

Details

Kategorie
{}Datenanalyse
Quelle
skills.sh
Erstes Auftreten
2026-03-10