Ir al contenido principal

Deploy Workloads with Lakeflow Jobs - Spanish

El curso Implementar cargas de trabajo con Lakeflow Jobs enseña cómo orquestar y automatizar los flujos de trabajo de datos, análisis e IA utilizando Lakeflow Jobs como una plataforma de orquestación unificada dentro del ecosistema de Databricks. 

- Aprenderá a diseñar e implementar cargas de trabajo de datos mediante gráficos acíclicos dirigidos (DAG), configurar varias opciones de programación e implementar funciones avanzadas de flujo de trabajo, como la ejecución de tareas condicionales, las dependencias run-if y los bucles for each. 

- El curso cubre las mejores prácticas para crear canalizaciones sólidas y listas para producción con una selección de cómputo adecuada, orquestación modular, técnicas de manejo de errores y diseño tolerante a fallas, todo integrado de forma nativa dentro del Databricks Data Intelligence Platform.


Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Skill Level
Associate
Duration
4h
Prerequisites

- Finalización del curso "Introducción al Databricks para Ingeniería de Datos", o una sólida comprensión del Databricks Data Intelligence Platform

- Comprensión básica de temas como navegar por un Databricks Workspace, Apache Spark, Delta Lake, Arquitectura Medallion, y Unity Catalog.

- Familiaridad con Python/PySpark 

- Experiencia en la redacción de consultas de nivel intermedio SQL.

Outline

Introducción a la ingeniería de datos con Databricks

⇾ Ingeniería de datos con Databricks

⇾ ¿Qué es un trabajo de Lakeflow?


Componentes básicos de un trabajo de Lakeflow

⇾ Componentes fundamentales de un trabajo de Lakeflow

⇾ Coordinación de trabajos

⇾ Creación de trabajos con la interfaz de usuario de Lakeflow


Creación y programación de trabajos

⇾ Opciones comunes de configuración de trabajos

⇾ Programaciones y desencadenantes de trabajos

⇾ Automatización de cargas de trabajo y desencadenantes mediante programadores


Funciones avanzadas de los trabajos de Lakeflow

⇾ Trabajos condicionales e iterativos

⇾ Gestión de fallos en las tareas

⇾ Producción de trabajos de Lakeflow

⇾ Prácticas recomendadas 

Inscripción a clases públicas

Si su empresa ha adquirido créditos de servicio (Success Credits) o cuenta con una suscripción de aprendizaje, por favor complete el formulario de Solicitud de Capacitación. De lo contrario, puede registrarse a continuación.

Solicitud de clase privada

Si su empresa está interesada en capacitación privada, envíe una solicitud.

Ver todas nuestras opciones de inscripción

Registration options

Databricks ofrece modalidades de aprendizaje para acompañarlo en todo su recorrido.

Runtime

A tu propio ritmo

Rutas de aprendizaje personalizadas para roles y trayectorias profesionales de datos, analítica e IA, con videos a pedido.

Regístrese ahora

Instructors

Instruido por expertos

Cursos públicos y privados impartidos por instructores expertos en sesiones de medio día o dos días.

Regístrese ahora

Learning

Aprendizaje combinado (Blended Learning)

Sesiones semanales dirigidas por un instructor, junto con opciones a tu propio ritmo, para todos los estilos de aprendizaje, optimizando la finalización y la retención del conocimiento. Visite la pestaña “Catálogo de suscripciones” para comprar.

Comprar ahora

Scale

Skills@Scale

Oferta de capacitación integral para clientes a gran escala que incluye elementos para todos los estilos de aprendizaje. Consulte con su ejecutivo de cuenta para obtener más detalles.

Próximas clases públicas

Data Engineer

DevOps Essentials for Data Engineering - Spanish

Este curso explora las mejores prácticas de ingeniería de software y los principios de DevOps, diseñados específicamente para ingenieros de datos que trabajan con Databricks. Los participantes construirán una base sólida en temas clave como la calidad del código, el control de versiones, la documentación y las pruebas. El curso enfatiza DevOps, cubriendo los componentes centrales, los beneficios y el papel de la integración y entrega continuas (CI/CD) en la optimización de Lakeflow jobs de ingeniería de datos.

Aprenderá cómo aplicar los principios de modularidad en PySpark para crear componentes reutilizables y estructurar código de manera eficiente. La experiencia práctica incluye el diseño e implementación de pruebas unitarias para funciones PySpark utilizando el framework pytest, seguidas de pruebas de integración para pipeline de datos de Databricks con SDP y Lakeflow Jobs para garantizar la confiabilidad.

El curso también cubre las operaciones esenciales de Git dentro de Databricks, incluido el uso de carpetas Databricks Git para integrar prácticas de integración continua. Por último, analizará varios métodos de implementación de activos de Databricks, como REST API, CLI, SDK, y Databricks Asset Bundles (DAB), lo que le proporcionará el conocimiento de las técnicas para implementar y administrar sus canalizaciones.

Al final del curso, dominará la ingeniería de software y las mejores prácticas DevOps, lo que le permitirá crear soluciones de ingeniería de datos escalables, mantenibles y eficientes.

Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Paid
4h
Lab
instructor-led
Associate

¿Preguntas?

Si tiene alguna pregunta, consulte nuestra página de Preguntas frecuentes (FAQ).