·big-data

페타바이트 규모 워크로드를 위한 Apache Spark, Hadoop, 분산 컴퓨팅 및 대규모 데이터 처리

11설치·1트렌드·@pluginagentmarketplace

설치

$npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data

SKILL.md

Production-grade big data processing with Apache Spark, distributed systems patterns, and petabyte-scale data engineering.

| Apache Spark | Distributed processing | 3.5+ | | Delta Lake | ACID transactions | 3.0+ | | Apache Iceberg | Table format | 1.4+ | | Apache Flink | Stream processing | 1.18+ | | Databricks | Managed Spark platform | Latest | | AWS EMR | Managed Hadoop/Spark | 7.0+ | | Trino | Interactive queries | 400+ | | dbt | Transform layer | 1.7+ |

| Issue | Symptoms | Root Cause | Fix |

페타바이트 규모 워크로드를 위한 Apache Spark, Hadoop, 분산 컴퓨팅 및 대규모 데이터 처리 출처: pluginagentmarketplace/custom-plugin-data-engineer.

원본 보기

인용 가능한 정보

AI/검색 인용용 안정적인 필드와 명령어.

설치 명령어
npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data
카테고리
{}데이터 분석
인증됨
최초 등록
2026-02-01
업데이트
2026-02-18

빠른 답변

big-data이란?

페타바이트 규모 워크로드를 위한 Apache Spark, Hadoop, 분산 컴퓨팅 및 대규모 데이터 처리 출처: pluginagentmarketplace/custom-plugin-data-engineer.

big-data 설치 방법은?

터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다

소스 저장소는 어디인가요?

https://github.com/pluginagentmarketplace/custom-plugin-data-engineer

상세

카테고리
{}데이터 분석
출처
skills.sh
최초 등록
2026-02-01