·databricks-pipelines
{}

databricks-pipelines

Développer Lakeflow Spark Declarative Pipelines (anciennement Delta Live Tables) sur Databricks. À utiliser lors de la création de pipelines de données par lots ou en streaming avec Python ou SQL. Invoquer AVANT de commencer la mise en œuvre.

9Installations·4Tendance·@databricks

Installation

$npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines

Comment installer databricks-pipelines

Installez rapidement le skill IA databricks-pipelines dans votre environnement de développement via la ligne de commande

  1. Ouvrir le Terminal: Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.)
  2. Exécuter la commande d'installation: Copiez et exécutez cette commande : npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
  3. Vérifier l'installation: Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Source : databricks/databricks-agent-skills.

FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.

Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.

Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.

Développer Lakeflow Spark Declarative Pipelines (anciennement Delta Live Tables) sur Databricks. À utiliser lors de la création de pipelines de données par lots ou en streaming avec Python ou SQL. Invoquer AVANT de commencer la mise en œuvre. Source : databricks/databricks-agent-skills.

Faits (prêts à citer)

Champs et commandes stables pour les citations IA/recherche.

Commande d'installation
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
Catégorie
{}Analyse de Données
Vérifié
Première apparition
2026-03-10
Mis à jour
2026-03-10

Browse more skills from databricks/databricks-agent-skills

Réponses rapides

Qu'est-ce que databricks-pipelines ?

Développer Lakeflow Spark Declarative Pipelines (anciennement Delta Live Tables) sur Databricks. À utiliser lors de la création de pipelines de données par lots ou en streaming avec Python ou SQL. Invoquer AVANT de commencer la mise en œuvre. Source : databricks/databricks-agent-skills.

Comment installer databricks-pipelines ?

Ouvrez votre terminal ou outil de ligne de commande (Terminal, iTerm, Windows Terminal, etc.) Copiez et exécutez cette commande : npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines Une fois installé, le skill sera automatiquement configuré dans votre environnement de programmation IA et prêt à être utilisé dans Claude Code, Cursor ou OpenClaw

Où se trouve le dépôt source ?

https://github.com/databricks/databricks-agent-skills

Détails

Catégorie
{}Analyse de Données
Source
skills.sh
Première apparition
2026-03-10