페타바이트 규모 워크로드를 위한 Apache Spark, Hadoop, 분산 컴퓨팅 및 대규모 데이터 처리
SKILL.md
Production-grade big data processing with Apache Spark, distributed systems patterns, and petabyte-scale data engineering.
| Apache Spark | Distributed processing | 3.5+ | | Delta Lake | ACID transactions | 3.0+ | | Apache Iceberg | Table format | 1.4+ | | Apache Flink | Stream processing | 1.18+ | | Databricks | Managed Spark platform | Latest | | AWS EMR | Managed Hadoop/Spark | 7.0+ | | Trino | Interactive queries | 400+ | | dbt | Transform layer | 1.7+ |
| Issue | Symptoms | Root Cause | Fix |
페타바이트 규모 워크로드를 위한 Apache Spark, Hadoop, 분산 컴퓨팅 및 대규모 데이터 처리 출처: pluginagentmarketplace/custom-plugin-data-engineer.
인용 가능한 정보
AI/검색 인용용 안정적인 필드와 명령어.
- 설치 명령어
npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data- 카테고리
- {}데이터 분석
- 인증됨
- ✓
- 최초 등록
- 2026-02-01
- 업데이트
- 2026-02-18
빠른 답변
big-data이란?
페타바이트 규모 워크로드를 위한 Apache Spark, Hadoop, 분산 컴퓨팅 및 대규모 데이터 처리 출처: pluginagentmarketplace/custom-plugin-data-engineer.
big-data 설치 방법은?
터미널 또는 명령줄 도구(Terminal, iTerm, Windows Terminal 등)를 엽니다 이 명령어를 복사하여 실행합니다: npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data 설치 후 스킬은 자동으로 AI 코딩 환경에 설정되어 Claude Code나 Cursor에서 사용할 수 있습니다
소스 저장소는 어디인가요?
https://github.com/pluginagentmarketplace/custom-plugin-data-engineer
상세
- 카테고리
- {}데이터 분석
- 출처
- skills.sh
- 최초 등록
- 2026-02-01