Data Ingestion with Lakeflow Connect - Spanish
Este curso proporciona una introducción completa a Lakeflow Connect, una solución escalable y simplificada para ingerir datos en Databricks desde una amplia gama de fuentes. Comenzará explorando los diferentes tipos de conectores de Lakeflow Connect (estándar y administrados) y aprenderá varias técnicas de ingesta de datos, incluida la ingesta Batch, Batch incremental y transmisión. También revisará los beneficios clave de usar tablas Delta y la arquitectura Medallion.
A continuación, desarrollará habilidades prácticas para ingerir datos del almacenamiento de objetos en la nube mediante los conectores estándar de Lakeflow Connect. Esto incluye trabajar con métodos como CREATE TABLE AS SELECT (CTAS), COPY INTO y Auto Loader, con énfasis en los beneficios y consideraciones de cada enfoque. También aprenderá a anexar columnas de metadatos a las tablas de nivel bronce durante la ingesta en el Databricks Data Intelligence Platform. A continuación, el curso cubre cómo controlar los registros que no coinciden con el esquema de la tabla mediante la columna de datos rescatados, junto con estrategias para administrar y analizar estos datos. También explorará técnicas para ingerir y aplanar datos JSON semiestructurados.
A continuación, explorará cómo realizar la ingesta de datos de nivel empresarial mediante los conectores administrados de Lakeflow Connect para incorporar datos de bases de datos y aplicaciones de software como servicio (SaaS). El curso también presenta Partner Connect como una opción para integrar herramientas de socios en sus flujos de trabajo de ingesta.
Finalmente, el curso concluye con estrategias de ingesta alternativas, que incluyen operaciones MERGE INTO y aprovechar el Databricks Marketplace, equipándolo con una base sólida para respaldar los casos de uso de ingeniería de datos modernos.
- Comprensión básica del Databricks Data Intelligence Platform, incluidos los espacios de trabajo de Databricks, Apache Spark, Delta Lake, la arquitectura del medallón y Unity Catalog.
- Experiencia trabajando con varios formatos de archivo (por ejemplo, Parquet, CSV, JSON, TXT).
- Competencia en SQL y Python.
- Familiaridad con la ejecución de código en Databricks Notebooks.
Inscripción a clases públicas
Si su empresa ha adquirido créditos de servicio (Success Credits) o cuenta con una suscripción de aprendizaje, por favor complete el formulario de Solicitud de Capacitación. De lo contrario, puede registrarse a continuación.
Solicitud de clase privada
Si su empresa está interesada en capacitación privada, envíe una solicitud.
Registration options
Databricks ofrece modalidades de aprendizaje para acompañarlo en todo su recorrido.
A tu propio ritmo
Rutas de aprendizaje personalizadas para roles y trayectorias profesionales de datos, analítica e IA, con videos a pedido.
Regístrese ahoraInstruido por expertos
Cursos públicos y privados impartidos por instructores expertos en sesiones de medio día o dos días.
Regístrese ahoraAprendizaje combinado (Blended Learning)
Sesiones semanales dirigidas por un instructor, junto con opciones a tu propio ritmo, para todos los estilos de aprendizaje, optimizando la finalización y la retención del conocimiento. Visite la pestaña “Catálogo de suscripciones” para comprar.
Comprar ahoraSkills@Scale
Oferta de capacitación integral para clientes a gran escala que incluye elementos para todos los estilos de aprendizaje. Consulte con su ejecutivo de cuenta para obtener más detalles.

