Apache Spark, Hadoop, verteiltes Computing und umfangreiche Datenverarbeitung für Workloads im Petabyte-Bereich
SKILL.md
Production-grade big data processing with Apache Spark, distributed systems patterns, and petabyte-scale data engineering.
| Apache Spark | Distributed processing | 3.5+ | | Delta Lake | ACID transactions | 3.0+ | | Apache Iceberg | Table format | 1.4+ | | Apache Flink | Stream processing | 1.18+ | | Databricks | Managed Spark platform | Latest | | AWS EMR | Managed Hadoop/Spark | 7.0+ | | Trino | Interactive queries | 400+ | | dbt | Transform layer | 1.7+ |
| Issue | Symptoms | Root Cause | Fix |
Apache Spark, Hadoop, verteiltes Computing und umfangreiche Datenverarbeitung für Workloads im Petabyte-Bereich Quelle: pluginagentmarketplace/custom-plugin-data-engineer.
Fakten (zitierbereit)
Stabile Felder und Befehle für KI/Such-Zitate.
- Installationsbefehl
npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data- Kategorie
- {}Datenanalyse
- Verifiziert
- ✓
- Erstes Auftreten
- 2026-02-01
- Aktualisiert
- 2026-02-18
Schnelle Antworten
Was ist big-data?
Apache Spark, Hadoop, verteiltes Computing und umfangreiche Datenverarbeitung für Workloads im Petabyte-Bereich Quelle: pluginagentmarketplace/custom-plugin-data-engineer.
Wie installiere ich big-data?
Öffnen Sie Ihr Terminal oder Kommandozeilen-Tool (Terminal, iTerm, Windows Terminal, etc.) Kopieren Sie diesen Befehl und führen Sie ihn aus: npx skills add https://github.com/pluginagentmarketplace/custom-plugin-data-engineer --skill big-data Nach der Installation wird der Skill automatisch in Ihrer KI-Programmierumgebung konfiguriert und ist bereit zur Verwendung in Claude Code oder Cursor
Wo ist das Quell-Repository?
https://github.com/pluginagentmarketplace/custom-plugin-data-engineer
Details
- Kategorie
- {}Datenanalyse
- Quelle
- skills.sh
- Erstes Auftreten
- 2026-02-01