Ir al contenido principal

¿Qué es la orquestación?

Coordinación automatizada de flujos de trabajo complejos y canalizaciones de datos, programación de dependencias, monitoreo de ejecución y manejo de fallas entre sistemas

por Personal de Databricks

  • Administra dependencias complejas entre tareas de canalización de datos utilizando grafos dirigidos acíclicos (DAGs) para definir el orden de ejecución, permitiendo el procesamiento paralelo cuando es posible y asegurando que las tareas prerrequisito se completen antes de que se ejecuten los pasos dependientes
  • Proporciona paneles de monitoreo, sistemas de alerta y lógica de reintento para rastrear la salud de la canalización, detectar fallas rápidamente y recuperarse automáticamente de errores transitorios sin intervención manual
  • Admite desencadenadores de programación basados en intervalos de tiempo, disponibilidad de datos o eventos externos, coordinando flujos de trabajo ETL, canalizaciones de entrenamiento de modelos y procesos de análisis de múltiples etapas en diversos recursos de cómputo

¿Qué es la orquestación de datos?

La orquestación de datos es el proceso de organizar y administrar tareas de datos, como mover, transformar, verificar y entregar, para que se ejecuten en el orden correcto, en el momento adecuado y a gran escala.

En un sistema de datos típico, intervienen muchos pasos: necesitas recopilar datos de diferentes fuentes, limpiarlos y transformarlos, verificar su calidad y cargarlos en bases de datos, paneles o aplicaciones. La orquestación de datos conecta todos estos pasos en un flujo de trabajo coordinado para abordar las necesidades de tu organización. Decide cuándo debe comenzar cada tarea, qué debe terminar primero y qué hacer si algo sale mal. La orquestación de datos es particularmente útil siempre que un proceso sea repetible y las tareas puedan automatizarse. Puede ahorrar tiempo, mejorar la eficiencia y el rendimiento de tu sistema, y garantizar una mejor calidad de los datos.

En términos sencillos, la orquestación de datos asegura que todo el proceso de datos ocurra de manera fluida, confiable y a tiempo.

Las herramientas comunes de orquestación de datos incluyen Apache Airflow, Prefect, Dagster y opciones integradas en plataformas como Databricks Lakeflow Jobs.

La orquestación de datos difiere de otros tipos de orquestación que existen en el espacio de los desarrolladores:

  • Orquestación de contenedores: La orquestación de contenedores es la automatización de la gestión y coordinación de contenedores. Los equipos de software (DevOps, ingenieros de plataformas, etc.) utilizan herramientas de orquestación de contenedores como Kubernetes y Docker Swarm para controlar y automatizar tareas como el aprovisionamiento y las implementaciones de contenedores, la asignación de recursos entre contenedores, la monitorización del estado de los contenedores y la protección de las interacciones entre ellos.
  • Orquestación de aplicaciones: La orquestación de aplicaciones es la integración de dos o más aplicaciones de software. Puedes hacerlo para automatizar un proceso o para permitir la sincronización de datos en tiempo real. El proceso de orquestación de aplicaciones te permite gestionar y monitorizar tus integraciones de forma centralizada y añadir capacidades para el enrutamiento de mensajes, la seguridad, la transformación y la fiabilidad. Este enfoque es más eficaz que la integración punto a punto porque la lógica de integración está desacoplada de las aplicaciones mismas y se gestiona dentro de un contenedor.
  • Orquestación de seguridad (SOAR): La orquestación, automatización y respuesta de seguridad (SOAR) es un enfoque que combina automatización y orquestación, y permite a las organizaciones automatizar la búsqueda de amenazas, la recopilación de inteligencia sobre amenazas y las respuestas a incidentes ante amenazas de bajo nivel.

¿Cuál es la diferencia entre orquestación de datos y ETL?

ETL (Extract, Transform, Load), también conocido a veces como ELT, es el proceso que realmente mueve y remodela los datos: extrae datos de las fuentes (extract), los limpia y los adapta a una necesidad de negocio específica (transform), y luego los carga en un sistema de destino como un almacén de datos (load).

La orquestación de datos se sitúa por encima del ETL como capa de coordinación que decide cuándo y cómo se ejecuta el proceso ETL. Se centra en controlar y coordinar las tareas de datos, incluyendo: decidir cuándo deben ejecutarse los trabajos, controlar qué trabajos se ejecutan primero, gestionar fallos y reintentos, enviar alertas, rastrear dependencias y más.

En resumen, ETL se encarga del trabajo de datos, mientras que la orquestación lo gestiona para que el resultado sea confiable y oportuno.

¿Cómo funciona la orquestación de datos?

La orquestación de datos ayuda a los equipos de datos a automatizar su proceso de ingeniería de datos tomando datos aislados de múltiples ubicaciones de almacenamiento, combinándolos, organizándolos y luego poniéndolos a disposición para cualquier necesidad de inteligencia de negocio (BI), análisis o modelo de machine learning.

El proceso conecta todos tus centros de datos, ya sean sistemas heredados, herramientas basadas en la nube o lagos de datos. Los datos se transforman en un formato estándar, lo que facilita su comprensión y uso para la toma de decisiones.

La mayoría de las organizaciones generan grandes cantidades de datos, por lo que las herramientas automatizadas son esenciales para organizarlos a escala y garantizar que estén disponibles a tiempo para casos de uso posteriores. Además, las plataformas de orquestación de datos son ideales para garantizar el cumplimiento, monitorizar la salud y el rendimiento de las tuberías y detectar problemas a través de la observabilidad.

¿Cuáles son los beneficios clave de usar una herramienta de orquestación de datos?

Usar la solución de orquestación de datos adecuada te proporcionará:

  • Fiabilidad mejorada: las tuberías de datos se ejecutan de forma predecible con dependencias claras, reintentos automáticos y alertas accionables
  • Mayor calidad de los datos: validaciones y comprobaciones integradas para detectar datos erróneos de forma temprana
  • Mayor transparencia: los registros, métricas y linaje hacen que las operaciones sean observables
  • Puntualidad: datos frescos entregados a tiempo o según eventos
  • Eficiencia de costos: evita reprocesamientos redundantes y escala los recursos de manera inteligente
  • Gobernanza: ejecuciones auditables, controles de acceso y aplicación de políticas

¿Cuáles son algunos de los desafíos que pueden surgir al usar una herramienta de orquestación de datos incorrecta?

Algunos orquestadores de datos pueden venir con limitaciones, lo que puede llevar a:

  • Flujos de trabajo complejos: Tuberías enredadas que hacen que las dependencias y las rutas de fallo sean difíciles de entender o mantener.
  • Inteligencia de programación limitada: Programación basada en tiempo sin conocimiento de dependencias, comprobaciones de calidad de datos o lógica de reintento robusta.
  • Observabilidad débil: Registros, métricas o linaje limitados, lo que ralentiza la resolución de problemas y el análisis de la causa raíz.
  • Fatiga de alertas: Notificaciones ruidosas con poca señal que abruman a los operadores.
  • Soporte de flujo de trabajo rígido: Manejo deficiente de backfills, disparadores basados en eventos o tuberías dinámicas.
  • Expansión de la configuración: Complejidad creciente de la configuración y dependencia del proveedor que reduce la portabilidad y el control de versiones.
  • Limitaciones de seguridad: Lagunas en la gobernanza, como controles de acceso insuficientes basados en roles.

Los orquestadores tendrán dificultades para funcionar bien cuando los flujos de trabajo son muy dinámicos, abarcan múltiples sistemas, requieren contratos de datos sólidos o deben escalar a alta concurrencia sin sacrificar la fiabilidad. Elija plataformas que aborden explícitamente estas áreas, y mantenga sus tuberías de datos modulares y observables.

¿Cuáles son los componentes clave de una solución de orquestación de datos?

Para orquestar tus datos de forma fácil y eficiente, las soluciones de orquestación de datos deben incluir las siguientes características:

  • Dependencia de tareas: Una dependencia de tareas establece el orden y las condiciones entre las tareas, permitiendo la secuencia, el paralelismo y la ramificación en un flujo de trabajo.
  • Tipos de tareas: Las soluciones de orquestación de datos deben admitir una variedad de tipos de tareas, incluyendo, entre otras, notebooks, scripts de Python, SQL, dbt, JAR, Spark Submit y más.
  • Parámetros: Los parámetros son entradas con nombre y tipo que pasas a una ejecución de orquestación (tubería, DAG, flujo de trabajo) para controlar el comportamiento sin cambiar el código. Hacen que los flujos de trabajo sean reutilizables, configurables y más fáciles de promover entre entornos.
  • Programaciones: Una programación es una configuración basada en el tiempo que ejecuta una tarea en momentos específicos (por ejemplo, cada hora, a diario o mediante cron).
  • Disparadores: Un disparador es el mecanismo que inicia una tarea basándose en una condición o evento (basado en tiempo, evento o impulsado por datos).
  • Flujo de control: Los flujos de control son funcionalidades que te permiten definir la forma de la ejecución de las tareas para que puedas construir flujos de trabajo dinámicos y resilientes. A menudo incluyen reintentos (especificar cuántas veces se debe volver a ejecutar una tarea determinada si falla con un mensaje de error), secuencia, paralelismo, ramificación y bucles (tareas condicionales de “ejecutar si”, “si/entonces” y “para cada”).
  • Ejecuciones condicionales: Las herramientas de orquestación deben permitirte establecer condiciones para tus ejecuciones.
  • Ejecuciones de backfill: Una ejecución de backfill es una ejecución de trabajo (a menudo una serie de ejecuciones) que reprocesa datos históricos durante un rango de fechas/horas pasado para llenar vacíos o recalcular resultados.
  • Observabilidad: La observabilidad para la ingeniería de datos es la capacidad de descubrir, monitorizar y solucionar problemas de sistemas para garantizar que el ETL funcione de manera correcta y eficaz. Es la clave para mantener tuberías de datos saludables y confiables, obtener información de negocio real y entregar análisis posteriores confiables.
  • Gobernanza: Las herramientas de orquestación deben incluir gobernanza de datos para gestionar privilegios, incluyendo concesiones de permisos e identidades, y activos.

¿Quién es responsable de la orquestación de datos?

Si bien la mayoría de las empresas confían en su equipo de ingeniería de datos para la orquestación de datos, los analistas de datos y los científicos de datos también pueden desempeñar esta función. Con menos frecuencia, algunas organizaciones tienen usuarios de negocio o profesionales de DevOps que orquestan sus datos.

Informe

La guía de IA agéntica para la empresa

IA y orquestación de datos

La IA está transformando la orquestación de datos al añadir toma de decisiones inteligente, capacidades de análisis predictivo y optimización adaptativa a los flujos de trabajo automatizados.

La IA mejora la orquestación
La orquestación tradicional sigue reglas y secuencias predefinidas. La orquestación impulsada por IA va más allá al aprender de datos históricos, predecir resultados y ajustar flujos de trabajo según las condiciones en tiempo real. Esto permite que los sistemas de orquestación sean más autónomos, eficientes y resilientes.

Capacidades clave de la orquestación impulsada por IA

  • Optimización predictiva del flujo de trabajo: La IA analiza ejecuciones de flujos de trabajo anteriores para predecir cuellos de botella, necesidades de recursos y posibles fallos antes de que ocurran, ajustando automáticamente la asignación de recursos y la programación de tareas.
  • Manejo inteligente de errores: En lugar de simplemente reintentar tareas fallidas, la orquestación impulsada por IA puede diagnosticar las causas raíz, sugerir estrategias de remediación y enrutar automáticamente los flujos de trabajo a través de rutas alternativas.
  • Detección de anomalías: Los modelos de aprendizaje automático monitorean continuamente los flujos de trabajo orquestados para detectar patrones inusuales, degradación del rendimiento o amenazas de seguridad en tiempo real.
  • Gestión adaptativa de recursos: La IA asigna dinámicamente recursos computacionales según la demanda prevista de la carga de trabajo, optimizando costos y manteniendo el rendimiento.
  • Interfaces de lenguaje natural: La IA permite a los usuarios crear, modificar y monitorear flujos de trabajo de orquestación utilizando interfaces conversacionales, haciendo que la orquestación sea más accesible para usuarios no técnicos.

Orquestación de cargas de trabajo de IA/ML
La orquestación de datos es particularmente valiosa para administrar pipelines de aprendizaje automático, donde puede automatizar los ciclos de entrenamiento, prueba, implementación y reentrenamiento de modelos basándose en métricas de rendimiento del modelo y detección de deriva de datos.

Cómo seleccionar su herramienta de orquestación de datos

Elegir la solución de orquestación de datos adecuada depende de sus necesidades específicas. Al seleccionar su orquestador, considere lo siguiente:

Alineación con el caso de uso
Las herramientas de orquestación a menudo se adaptan a tareas particulares. Identifique sus objetivos principales —como la creación de pipelines de datos, la gestión de la implementación de aplicaciones o la automatización de la infraestructura en la nube— y elija una herramienta que aborde estas prioridades directamente. Evalúe las características específicas de sus requisitos, por ejemplo, la integración de bases de datos para pipelines de datos o el soporte de gestión de contenedores para flujos de trabajo de implementación.

Escalabilidad
Considere el volumen de datos actual y proyectado, la complejidad del flujo de trabajo y la base de usuarios. Algunas plataformas funcionan bien con equipos pequeños o proyectos piloto, pero tienen dificultades a escala empresarial. Evalúe el soporte para escalado horizontal, ejecución distribuida y alta disponibilidad para garantizar que la herramienta maneje el crecimiento futuro sin pérdida de rendimiento.

Capacidades de integración
Los ecosistemas tecnológicos varían ampliamente; verifique la compatibilidad de la plataforma de orquestación con su pila tecnológica actual, APIs y protocolos de seguridad. Busque integraciones integradas con almacenes de datos esenciales, entornos de cómputo, sistemas de control de versiones y servicios de monitoreo o alertas. Una integración robusta reduce el trabajo manual y los puntos de fallo.

Facilidad de uso
Busque un equilibrio entre capacidades de scripting flexibles e interfaces visuales claras. Los editores de flujo de trabajo intuitivos facilitan que los diferentes miembros del equipo —incluidos aquellos sin profundos conocimientos de programación— diseñen, monitoreen y solucionen problemas de pipelines. La documentación completa y una comunidad de usuarios activa también contribuyen a una experiencia más fluida.

Facilidad de mantenimiento
Evalúe cómo la herramienta gestiona las actualizaciones, los cambios de dependencias y el manejo de errores. Un registro sólido, herramientas claras de solución de problemas y opciones de recuperación automatizada reducen la carga operativa y evitan que problemas menores se conviertan en interrupciones importantes. Considere los recursos de soporte disponibles para el mantenimiento continuo.

Costo financiero
Examine los modelos de precios —suscripción, basado en el uso o de código abierto— y compárelos con su presupuesto y la escala prevista. Tenga en cuenta los costos de licencia, infraestructura y operación a largo plazo, no solo la configuración inicial, para evitar sorpresas posteriores.

¿Cuándo tiene sentido comprar un orquestador de datos frente a construir uno?

Todo depende de las necesidades de su equipo y organización y de lo que quiera priorizar: madurez frente a personalización, mantenimiento frente a flexibilidad, etc. A continuación, se detallan más detalles para ayudarle a encontrar el enfoque correcto.

Cuándo comprar:

  • Necesita orquestación de flujos de trabajo lista para usar — creación de DAG con lógica condicional, bucles y soporte para notebooks, Python, SQL/dbt y tareas externas.
  • Sus pipelines dependen de desencadenadores de eventos — llegada de archivos, actualizaciones de tablas o programaciones que requieren ejecución continua sin construir programadores personalizados.
  • Requiere funciones de confiabilidad integradas — reintentos, tiempos de espera, reparaciones/backfills dirigidos y alertas para cumplir con los requisitos del SLA.
  • La observabilidad es crítica — gráficos de ejecución, líneas de tiempo, registros, métricas y linaje para depuración y monitoreo del rendimiento.
  • La gobernanza y la seguridad son importantes — linaje, auditoría y controles de acceso basados en roles integrados con el catálogo de datos.
  • Desea integraciones nativas — conexiones integradas con herramientas (por ejemplo, tareas de actualización de BI) en lugar de unir automatizaciones.
  • Desea menos infraestructura que administrar — orquestadores nativos de la plataforma que evitan operar un sistema separado.

Cuándo construir:

  • Su lógica de orquestación es altamente especializada — flujos de trabajo cíclicos, arbitraje de recursos personalizado o enmascaramiento transaccional más allá de los modelos DAG estándar.
  • Necesita una integración profunda con sistemas propietarios — tiempos de ejecución personalizados, APIs internas o requisitos estrictos on-prem/offline.
  • Acepta la propiedad de ingeniería a largo plazo — mantenimiento de UIs de orquestación, DSLs, reintentos, capas de observabilidad, seguridad y actualizaciones.

Lista de verificación de decisiones:

Factor de decisión

Preguntas a hacer

Cuándo comprar suele tener sentido

Complejidad de la carga de trabajo

¿Los flujos de trabajo incluyen muchas tareas, dependencias entre sistemas, lógica condicional o ramas paralelas?

Los orquestadores listos para usar admiten DAGs, iteración dinámica de tareas, controles de concurrencia y recuperación de fallos.

Modelo de activación

¿Los pipelines dependen de programaciones, llegada de archivos, actualizaciones de tablas o desencadenadores de streaming?

Comprar evita construir y mantener programadores y desencadenadores de eventos personalizados.

Operaciones de confiabilidad

¿Necesita reintentos, tiempos de espera, ejecuciones de reparación y notificaciones automatizadas?

Las funciones de confiabilidad integradas reducen la necesidad de marcos de manejo de errores personalizados.

Observabilidad y gobernanza

¿Los equipos requieren historiales de ejecución, registros, métricas, información de costos o seguimiento de linaje?

Las herramientas comerciales proporcionan observabilidad y gobernanza integradas desde el primer momento.

Integraciones

¿Los flujos de trabajo orquestan notebooks, scripts, dbt, SQL o actualizaciones de BI entre sistemas?

Las integraciones nativas simplifican la orquestación entre herramientas sin necesidad de construir conectores.

Controles de rendimiento y costo

¿Las cargas de trabajo requieren escalado automático, grupos de recursos o salvaguardas de costos?

La orquestación nativa de la plataforma puede gestionar automáticamente el escalado de cómputo y la eficiencia de la carga de trabajo.

La respuesta corta es:

  • Por defecto, compre: si dos o más de los criterios de “compra” se aplican, un orquestador comercial/integrado de forma nativa será más rápido de adoptar y más barato de operar con el tiempo.
  • Construya solo cuando los requisitos sean excepcionales y estables, y tenga una propiedad y recursos claros para el mantenimiento a largo plazo.

Casos de uso clave de orquestación de datos

Los siguientes son ejemplos prácticos de cómo diferentes sectores aprovechan la orquestación de datos.

Servicios financieros
Las instituciones financieras utilizan la orquestación de datos para gestionar pipelines de detección de fraude, procesando datos de transacciones en tiempo real a través de múltiples sistemas. Los flujos de trabajo orquestados marcan automáticamente actividades sospechosas, activan procesos de verificación y actualizan modelos de riesgo, manteniendo el cumplimiento de los requisitos regulatorios y las pistas de auditoría.

Atención médica
Las organizaciones de atención médica orquestan flujos de datos de pacientes entre registros médicos electrónicos (EHR), sistemas de laboratorio, plataformas de imágenes y sistemas de facturación. Por ejemplo, cuando un paciente visita varios departamentos, la orquestación garantiza que los resultados de las pruebas, los diagnósticos y los planes de tratamiento se sincronicen en todos los sistemas, lo que permite una atención coordinada y al mismo tiempo mantiene el cumplimiento de HIPAA. Lea un ejemplo aquí

Comercio electrónico y venta minorista
Los minoristas utilizan la orquestación de datos para gestionar el inventario, los precios y los datos de los clientes en tiendas en línea, ubicaciones físicas y mercados de terceros. Los flujos de trabajo orquestados actualizan automáticamente los niveles de stock, activan procesos de reordenación, ajustan los precios según la demanda y personalizan las recomendaciones para los clientes en tiempo real. Lea un ejemplo aquí

Fabricación y cadena de suministro
Los fabricantes orquestan flujos de trabajo que conectan sensores IoT, sistemas de producción, control de calidad y plataformas de logística. La Orquestación de Datos permite el mantenimiento predictivo al coordinar datos de sensores de equipos, activar flujos de trabajo de mantenimiento antes de que ocurran fallos y ajustar automáticamente los cronogramas de producción. Lea algunos ejemplos aquí

Medios y entretenimiento
Las plataformas de streaming utilizan la orquestación de datos para gestionar canalizaciones de entrega de contenido, desde la ingesta y transcodificación hasta la distribución a través de redes de entrega de contenido (CDN) globales. Los flujos de trabajo orquestados garantizan que el contenido se procese, se optimice para diferentes dispositivos y se entregue con una latencia mínima.

Telecomunicaciones
Los proveedores de telecomunicaciones orquestan funciones de red, aprovisionamiento de servicios y procesos de incorporación de clientes. Cuando un nuevo cliente se registra, la orquestación coordina la verificación de identidad, la activación del servicio, la configuración de facturación y la configuración de la red en múltiples sistemas de back-end.

Preguntas frecuentes

¿Qué es la orquestación de datos y por qué es esencial?
La orquestación de datos es la coordinación automatizada de flujos de trabajo de datos como la ingesta, transformación, validación y entrega a través de múltiples sistemas.

Garantiza que las canalizaciones se ejecuten en el orden correcto con monitoreo, reintentos y gestión de dependencias. La orquestación de datos es esencial porque los entornos de datos modernos abarcan muchas herramientas y fuentes, y la automatización previene fallos en las canalizaciones, retrasos y problemas de calidad de datos.

¿Qué papel juega la orquestación en el soporte de IA y análisis?
La orquestación de datos admite IA y análisis al garantizar que las canalizaciones de datos se ejecuten de manera confiable y entreguen datos confiables a los sistemas posteriores. Ayuda mediante:

  • Automatización de canalizaciones de datos: coordinación de ingesta, transformación, validación y entrega entre sistemas
  • Garantía de confiabilidad de datos: gestión de dependencias, reintentos y monitoreo de canalizaciones
  • Mantenimiento de la calidad de los datos: integración de controles de validación y gobernanza
  • Entrega de datos oportuna: garantizar que los modelos, paneles y aplicaciones reciban conjuntos de datos actualizados y listos para producción

¿Cómo pueden los equipos de datos integrar la orquestación con las herramientas y canalizaciones existentes?
Los equipos de datos integran la orquestación con las herramientas existentes conectando sistemas de ingesta, marcos de transformación y plataformas de análisis en flujos de trabajo coordinados.

Plataformas como Databricks lo admiten a través de conectores, API e integraciones con herramientas como dbt, notebooks y canalizaciones SQL. Los formatos abiertos como Delta Lake y Apache Iceberg también permiten la interoperabilidad en el ecosistema de datos más amplio.

¿Cuánto cuesta el software de orquestación?
Los costos del software de orquestación varían ampliamente según la plataforma y la escala. Las herramientas de código abierto como Apache Airflow son gratuitas pero requieren costos de infraestructura y mantenimiento. Las plataformas basadas en la nube generalmente cobran según las ejecuciones de flujos de trabajo, el volumen de datos o los recursos de cómputo, que van desde cientos hasta miles de dólares por mes.

Al evaluar los costos, considere las tarifas de licencia, los requisitos de infraestructura, el tiempo de implementación y las necesidades de capacitación. Muchos proveedores ofrecen niveles o pruebas gratuitas. Recuerde que el costo total debe sopesarse con las ganancias de eficiencia y los ahorros de costos logrados a través de la automatización.

¿Qué habilidades se requieren para la orquestación?
Las habilidades principales para la orquestación incluyen:

  • Programación: Familiaridad con Python, SQL o Bash para la lógica del flujo de trabajo
  • Conocimiento de canalizaciones de datos: Comprensión de los procesos ETL e integración de datos
  • Arquitectura de sistemas: Conocimiento de cómo interactúan los sistemas, las API y los servicios en la nube
  • Prácticas de DevOps: Experiencia con CI/CD, control de versiones e infraestructura como código

Su equipo de datos no tiene que aprender nuevas habilidades extensas para beneficiarse de la orquestación. Muchas plataformas modernas ofrecen interfaces fáciles de usar, constructores de flujos de trabajo visuales y plantillas preconstruidas que reducen las barreras técnicas.

¿Qué herramienta de orquestación debo elegir?
Elegir la herramienta adecuada depende de sus necesidades específicas. Considere lo siguiente:

  • Alineación del caso de uso: Adapte la herramienta a sus necesidades principales: canalizaciones de datos, implementación de aplicaciones o infraestructura en la nube
  • Escalabilidad: Asegúrese de que la plataforma pueda manejar volúmenes actuales y futuros
  • Capacidades de integración: Verifique la compatibilidad con sus sistemas existentes
  • Facilidad de uso: Equilibre la flexibilidad basada en código con los diseñadores de flujos de trabajo visuales
  • Estructura de costos: Evalúe si los precios se alinean con su presupuesto

Orquestación de datos con Databricks

Con Lakeflow Jobs, la orquestación de datos está completamente integrada en Databricks como parte de Lakeflow, la plataforma unificada de ingeniería de datos. No requiere infraestructura adicional ni recursos de DevOps y viene con una experiencia de autoría flexible, observabilidad incorporada y procesamiento sin servidor.

En Lakeflow, el procesamiento sin servidor es cómputo totalmente administrado que Databricks aprovisiona, optimiza y escala para usted, por lo que ejecuta canalizaciones y trabajos de datos sin configurar ni operar clústeres usted mismo. En Lakeflow Jobs, esto significa que puede orquestar notebooks, scripts de Python, dbt, ruedas de Python y JARs en cómputo sin servidor, con modos Estándar y Optimizado para el Rendimiento para intercambiar la latencia de inicio y el costo.

Recursos adicionales

(Esta entrada del blog ha sido traducida utilizando herramientas basadas en inteligencia artificial) Publicación original

Recibe las últimas publicaciones en tu bandeja de entrada

Suscríbete a nuestro blog y recibe las últimas publicaciones directamente en tu bandeja de entrada.