·data-engineering-best-practices
{}

data-engineering-best-practices

Best practice per l'ingegneria dei dati: architettura del medaglione, ciclo di vita del set di dati, partizionamento, dimensionamento dei file, evoluzione dello schema e modelli di aggiunta/sovrascrittura/unione tra Polars, PyArrow, DuckDB, Delta Lake e Iceberg. Da utilizzare durante la progettazione di pipeline di dati di produzione o la revisione delle decisioni sulla piattaforma dati.

7Installazioni·1Tendenza·@legout

Installazione

$npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-best-practices

Come installare data-engineering-best-practices

Installa rapidamente la skill AI data-engineering-best-practices nel tuo ambiente di sviluppo tramite riga di comando

  1. Apri il terminale: Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.)
  2. Esegui il comando di installazione: Copia ed esegui questo comando: npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-best-practices
  3. Verifica l'installazione: Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Fonte: legout/data-platform-agent-skills.

Use this skill for production architecture and standards decisions: storage layout, lifecycle, incremental semantics, schema evolution, quality checks, and cost/performance tradeoffs.

Do not skip Silver validation for convenience; silent quality drift is costly.

| Append | strictly new immutable events | simplest, cheapest | | Partition overwrite | deterministic reprocessing for date/key slice | safe for backfills | | Merge/Upsert | corrections/late updates/deletes | needs key + conflict semantics |

Best practice per l'ingegneria dei dati: architettura del medaglione, ciclo di vita del set di dati, partizionamento, dimensionamento dei file, evoluzione dello schema e modelli di aggiunta/sovrascrittura/unione tra Polars, PyArrow, DuckDB, Delta Lake e Iceberg. Da utilizzare durante la progettazione di pipeline di dati di produzione o la revisione delle decisioni sulla piattaforma dati. Fonte: legout/data-platform-agent-skills.

Fatti (pronti per citazione)

Campi e comandi stabili per citazioni AI/ricerca.

Comando di installazione
npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-best-practices
Categoria
{}Analisi
Verificato
Prima apparizione
2026-02-22
Aggiornato
2026-03-10

Browse more skills from legout/data-platform-agent-skills

Risposte rapide

Che cos'è data-engineering-best-practices?

Best practice per l'ingegneria dei dati: architettura del medaglione, ciclo di vita del set di dati, partizionamento, dimensionamento dei file, evoluzione dello schema e modelli di aggiunta/sovrascrittura/unione tra Polars, PyArrow, DuckDB, Delta Lake e Iceberg. Da utilizzare durante la progettazione di pipeline di dati di produzione o la revisione delle decisioni sulla piattaforma dati. Fonte: legout/data-platform-agent-skills.

Come installo data-engineering-best-practices?

Apri il tuo terminale o strumento da riga di comando (Terminal, iTerm, Windows Terminal, ecc.) Copia ed esegui questo comando: npx skills add https://github.com/legout/data-platform-agent-skills --skill data-engineering-best-practices Dopo l'installazione, la skill verrà configurata automaticamente nel tuo ambiente AI di coding e sarà pronta all'uso in Claude Code, Cursor o OpenClaw

Dov'è il repository sorgente?

https://github.com/legout/data-platform-agent-skills