Passa al contenuto principale

Per iniziare a usare DLT

Sappiamo che vi è piaciuta molto la nostra guida DLT originale, ma era ora di un aggiornamento. Lo abbiamo sostituito con qualcosa di ancora meglio: un nuovissimo tutorial che presenta l'ultimo avanzamento nell'ingegneria dei dati di Databricks: Lakeflow Spark Declarative Pipelines (SDP).

Basandosi sulle fondamenta di DLT, Lakeflow SDP rappresenta la nostra visione per la moderna ingegneria dei dati. Ora completamente integrato nell'ecosistema Lakeflow, offre funzionalità di pipeline end-to-end, collegando ingestione, trasformazione e orchestrazione dei dati attraverso un'unica piattaforma intelligente che scala senza sforzo con il tuo business.

Per le pipeline di dati esistenti, non è necessario cambiare nulla: tutte le pipeline DLT continuano a funzionare senza interruzioni in Lakeflow, senza richiedere aggiornamenti o modifiche al codice. Tutte le funzionalità DLT, tra cui tabelle di streaming, viste materializzate e aspettative sulla qualità dei dati, restano disponibili e le pipeline sono ora ancora più strettamente integrate nella lakehouse.

Il nostro nuovo tutorial pratico su SDP ti mette al posto di comando con un esempio reale di avionica. Costruirai una pipeline pronta per la produzione che elabora dati IoT provenienti da migliaia di velivoli. Pronto a potenziare le tue competenze di data ingegneria? 

Dai un'occhiata alla nuova guida Come iniziare con Apache Spark Declarative Pipelines oggi.