Direkt zum Hauptinhalt

Erste Schritte mit DLT

Wir wissen, dass Ihnen unser ursprünglicher DLT-Leitfaden gefallen hat, aber es war Zeit für ein Upgrade. Wir haben sie durch etwas noch Besseres ersetzt – ein brandneues Tutorial, das die neuesten Fortschritte im Databricks Engineering vorstellt: Lakeflow Spark Declarative Pipelines (SDP).

Aufbauend auf der Grundlage von DLT repräsentiert Lakeflow SDP unsere Vision für modernes Data Engineering. Jetzt vollständig in das Lakeflow-Ökosystem integriert, bietet es End-to-End-Pipeline-Funktionen – es verbindet Datenaufnahme, Transformationen und Orchestrierung über eine einzige intelligente Plattform, die mühelos mit Ihrem Unternehmen skaliert.

Für bestehende Datenpipelines müssen Sie nichts ändern: Alle DLT-Pipelines setzen ihre Ausführung nahtlos in Lakeflow fort, ohne dass ein Upgrade oder Codeänderungen erforderlich sind. Alle DLT-Funktionen – einschließlich Streaming-Tabellen, materialisierte Ansichten und Datenqualität Expectations – bleiben verfügbar, und die Pipelines sind jetzt noch enger in das lakehouse integriert.

Unser neues praxisorientiertes SDP-Tutorial versetzt Sie mit einem realen Beispiel aus der Avionik ins Cockpit. Sie erstellen eine produktionsreife Pipeline, die IoT-Daten von Tausenden von Flugzeugen verarbeitet. Sind Sie bereit, Ihre Data-Engineering-Fähigkeiten auf die nächste Stufe zu heben? 

Sehen Sie sich noch heute das neue Lakeflow Spark Declarative Pipelines -Tutorial an.