·databricks-pipelines
{}

databricks-pipelines

Desarrolle canalizaciones declarativas de Lakeflow Spark (anteriormente Delta Live Tables) en Databricks. Úselo al crear canalizaciones de datos por lotes o en streaming con Python o SQL. Invocar ANTES de comenzar la implementación.

9Instalaciones·2Tendencia·@databricks

Instalación

$npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines

Cómo instalar databricks-pipelines

Instala rápidamente el skill de IA databricks-pipelines en tu entorno de desarrollo mediante línea de comandos

  1. Abrir Terminal: Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.)
  2. Ejecutar comando de instalación: Copia y ejecuta este comando: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
  3. Verificar instalación: Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

Fuente: databricks/databricks-agent-skills.

SKILL.md

Ver original

FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.

Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.

Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.

Desarrolle canalizaciones declarativas de Lakeflow Spark (anteriormente Delta Live Tables) en Databricks. Úselo al crear canalizaciones de datos por lotes o en streaming con Python o SQL. Invocar ANTES de comenzar la implementación. Fuente: databricks/databricks-agent-skills.

Datos (listos para citar)

Campos y comandos estables para citas de IA/búsqueda.

Comando de instalación
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
Categoría
{}Análisis de Datos
Verificado
Primera vez visto
2026-03-10
Actualizado
2026-03-11

Browse more skills from databricks/databricks-agent-skills

Respuestas rápidas

¿Qué es databricks-pipelines?

Desarrolle canalizaciones declarativas de Lakeflow Spark (anteriormente Delta Live Tables) en Databricks. Úselo al crear canalizaciones de datos por lotes o en streaming con Python o SQL. Invocar ANTES de comenzar la implementación. Fuente: databricks/databricks-agent-skills.

¿Cómo instalo databricks-pipelines?

Abre tu terminal o herramienta de línea de comandos (Terminal, iTerm, Windows Terminal, etc.) Copia y ejecuta este comando: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines Una vez instalado, el skill se configurará automáticamente en tu entorno de programación con IA y estará listo para usar en Claude Code, Cursor u OpenClaw

¿Dónde está el repositorio de origen?

https://github.com/databricks/databricks-agent-skills

Detalles

Categoría
{}Análisis de Datos
Fuente
skills.sh
Primera vez visto
2026-03-10