·databricks-pipelines
{}

databricks-pipelines

Разработайте декларативные конвейеры Lakeflow Spark (ранее — Delta Live Tables) на Databricks. Используйте при построении конвейеров пакетных или потоковых данных с помощью Python или SQL. Вызовите ПЕРЕД началом реализации.

9Установки·2Тренд·@databricks

Установка

$npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines

Как установить databricks-pipelines

Быстро установите AI-навык databricks-pipelines в вашу среду разработки через командную строку

  1. Откройте терминал: Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.)
  2. Выполните команду установки: Скопируйте и выполните эту команду: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
  3. Проверьте установку: После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Источник: databricks/databricks-agent-skills.

FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.

Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.

Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.

Разработайте декларативные конвейеры Lakeflow Spark (ранее — Delta Live Tables) на Databricks. Используйте при построении конвейеров пакетных или потоковых данных с помощью Python или SQL. Вызовите ПЕРЕД началом реализации. Источник: databricks/databricks-agent-skills.

Факты (для цитирования)

Стабильные поля и команды для ссылок в AI/поиске.

Команда установки
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines
Категория
{}Аналитика
Проверено
Впервые замечено
2026-03-10
Обновлено
2026-03-11

Browse more skills from databricks/databricks-agent-skills

Короткие ответы

Что такое databricks-pipelines?

Разработайте декларативные конвейеры Lakeflow Spark (ранее — Delta Live Tables) на Databricks. Используйте при построении конвейеров пакетных или потоковых данных с помощью Python или SQL. Вызовите ПЕРЕД началом реализации. Источник: databricks/databricks-agent-skills.

Как установить databricks-pipelines?

Откройте терминал или инструмент командной строки (Terminal, iTerm, Windows Terminal и т.д.) Скопируйте и выполните эту команду: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines После установки навык будет автоматически настроен в вашей AI-среде разработки и готов к использованию в Claude Code, Cursor или OpenClaw

Где находится исходный репозиторий?

https://github.com/databricks/databricks-agent-skills

Детали

Категория
{}Аналитика
Источник
skills.sh
Впервые замечено
2026-03-10