databricks-pipelines이란?
Databricks에서 Lakeflow Spark 선언적 파이프라인(이전의 Delta 라이브 테이블)을 개발하세요. Python 또는 SQL을 사용하여 일괄 처리 또는 스트리밍 데이터 파이프라인을 구축할 때 사용합니다. 구현을 시작하기 전에 호출하세요. 출처: databricks/databricks-agent-skills.
Databricks에서 Lakeflow Spark 선언적 파이프라인(이전의 Delta 라이브 테이블)을 개발하세요. Python 또는 SQL을 사용하여 일괄 처리 또는 스트리밍 데이터 파이프라인을 구축할 때 사용합니다. 구현을 시작하기 전에 호출하세요.
명령줄에서 databricks-pipelines AI 스킬을 개발 환경에 빠르게 설치
출처: databricks/databricks-agent-skills.
FIRST: Use the parent databricks skill for CLI basics, authentication, profile selection, and data discovery commands.
Use this tree to determine which dataset type and features to use. Multiple features can apply to the same dataset — e.g., a Streaming Table can use Auto Loader for ingestion, Append Flows for fan-in, and Expectations for data quality. Choose the dataset type first, then layer on applicable features.
Pipelines use a default catalog and schema configured in the pipeline settings. All datasets are published there unless overridden.
Databricks에서 Lakeflow Spark 선언적 파이프라인(이전의 Delta 라이브 테이블)을 개발하세요. Python 또는 SQL을 사용하여 일괄 처리 또는 스트리밍 데이터 파이프라인을 구축할 때 사용합니다. 구현을 시작하기 전에 호출하세요. 출처: databricks/databricks-agent-skills.
AI/검색 인용용 안정적인 필드와 명령어.
npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelinesDatabricks에서 Lakeflow Spark 선언적 파이프라인(이전의 Delta 라이브 테이블)을 개발하세요. Python 또는 SQL을 사용하여 일괄 처리 또는 스트리밍 데이터 파이프라인을 구축할 때 사용합니다. 구현을 시작하기 전에 호출하세요. 출처: databricks/databricks-agent-skills.
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/databricks/databricks-agent-skills --skill databricks-pipelines 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code, Cursor, OpenClaw에서 사용할 수 있습니다
https://github.com/databricks/databricks-agent-skills