Data Ingestion with Lakeflow Connect - Spanish
Este curso proporciona una introducción completa a Lakeflow Connect, una solución escalable y simplificada para ingerir datos en Databricks desde una amplia gama de fuentes. Comenzará explorando los diferentes tipos de conectores de Lakeflow Connect (estándar y administrados) y aprenderá varias técnicas de ingesta de datos, incluida la ingesta Batch, Batch incremental y transmisión. También revisará los beneficios clave de usar tablas Delta y la arquitectura Medallion.
A continuación, desarrollará habilidades prácticas para ingerir datos del almacenamiento de objetos en la nube mediante los conectores estándar de Lakeflow Connect. Esto incluye trabajar con métodos como CREATE TABLE AS SELECT (CTAS), COPY INTO y Auto Loader, con énfasis en los beneficios y consideraciones de cada enfoque. También aprenderá a anexar columnas de metadatos a las tablas de nivel bronce durante la ingesta en el Databricks Data Intelligence Platform. A continuación, el curso cubre cómo controlar los registros que no coinciden con el esquema de la tabla mediante la columna de datos rescatados, junto con estrategias para administrar y analizar estos datos. También explorará técnicas para ingerir y aplanar datos JSON semiestructurados.
A continuación, explorará cómo realizar la ingesta de datos de nivel empresarial mediante los conectores administrados de Lakeflow Connect para incorporar datos de bases de datos y aplicaciones de software como servicio (SaaS). El curso también presenta Partner Connect como una opción para integrar herramientas de socios en sus flujos de trabajo de ingesta.
Finalmente, el curso concluye con estrategias de ingesta alternativas, que incluyen operaciones MERGE INTO y aprovechar el Databricks Marketplace, equipándolo con una base sólida para respaldar los casos de uso de ingeniería de datos modernos.
- Comprensión básica del Databricks Data Intelligence Platform, incluidos los espacios de trabajo de Databricks, Apache Spark, Delta Lake, la arquitectura del medallón y Unity Catalog.
- Experiencia trabajando con varios formatos de archivo (por ejemplo, Parquet, CSV, JSON, TXT).
- Competencia en SQL y Python.
- Familiaridad con la ejecución de código en Databricks Notebooks.
Public Class Registration
If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.
Private Class Request
If your company is interested in private training, please submit a request.
Registration options
Databricks has a delivery method for wherever you are on your learning journey
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Register nowInstructor-Led
Public and private courses taught by expert instructors across half-day to two-day courses
Register nowBlended Learning
Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase
Purchase nowSkills@Scale
Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

