Skip to main content
Lakeflow Connect

Ingesta eficiente de datos en tu lakehouse

Da el primer paso para desbloquear la innovación con inteligencia de datos.
Lakeflow Connect
Beneficios

Libera el valor de tus datos en solo unos pocos pasos sencillos

Los conectores de datos integrados están disponibles para aplicaciones empresariales populares, fuentes de archivos y bases de datos.

Flexible y fácil

Los conectores totalmente gestionados proporcionan una IU y una API sencillas para facilitar la configuración y democratizar el acceso a los datos. Las funciones automatizadas también ayudan a simplificar el mantenimiento de los pipelines con una sobrecarga mínima.

Conectores integrados

La ingesta de datos está completamente integrada con la plataforma de inteligencia de datos. Crea pipelines de ingesta con gobernanza usando Unity Catalog, observabilidad con Lakehouse Monitoring y orquestación perfecta con flujos de trabajo para analítica, aprendizaje automático y BI.

Ingesta eficiente

Aumente la eficiencia y acelere el tiempo para obtener valor. Las lecturas y escrituras incrementales optimizadas y la transformación de datos ayudan a mejorar el rendimiento y la confiabilidad de sus canalizaciones, reducir los cuellos de botella y disminuir el impacto en los datos de origen para la escalabilidad.

CARACTERÍSTICAS

Capacidades robustas de ingesta para fuentes de datos populares

El primer paso para extraer valor y ayudar a resolver los problemas de datos más complejos de tu organización es incorporar todos tus datos a la plataforma de inteligencia de datos.

La interfaz de usuario (IU) sin código o una API simple les da a los profesionales de datos la capacidad de autoservicio, lo que ahorra horas de programación.

A screenshot of the Databricks UI and API interface, showcasing dashboard thumbnails and improved performance features.

Solo trae datos nuevos o actualizaciones de tablas, lo que hace que la ingesta de datos sea rápida, escalable y eficiente en términos operativos.

Incremental Reads and Writes

Ingesta de datos en un entorno 100 % sin servidor que proporciona un arranque rápido y un escalado automático de la infraestructura.

Fully Managed

La integración profunda con Databricks Unity Catalog ofrece capacidades robustas, que incluyen linaje y calidad de datos.

Unified Governance

Ingesta de datos con Databricks

Conector de Salesforce

Conector de datos que admite Salesforce Sales Cloud.

Ingerir datos desde Salesforce

Conector de Microsoft SQL Server

Conector de datos que admite Azure SQL Database y Amazon RDS for SQL Server.

Ingerir datos desde SQL Server

Conector de Google Analytics

Conector de datos que admite datos de Google Analytics 4 (GA4) a nivel de evento, con soporte para todos los campos.

Ingerir datos desde Google Analytics

Conector de ServiceNow

Conector de datos que ingiere datos de ServiceNow para diversos casos de uso, incluidos analítica y planificación de recursos.

Ingerir datos desde ServiceNow

Ingesta de Zerobus

Envía datos de eventos directamente a tu lakehouse en tiempo casi real. La API de escritura directa reduce tu carga operativa con un alto rendimiento y capacidad de procesamiento a escala.

Envía datos de eventos a Databricks

Fuentes de datos de transmisión

Ingiere registros de fuentes compatibles como Apache Kafka con una infraestructura siempre activa y procesamiento de datos casi en tiempo real.

Ingiere datos de fuentes de streaming

Conector de SharePoint

Conector de datos que admite datos de SharePoint (no estructurados). Integraciones sencillas con Vector Search y otras herramientas de IA.

Ingerir datos desde SharePoint

Conector de Workday

Conector de datos que ingiere informes de Workday para cargarlos directamente en Databricks.

Ingesta de datos desde Workday

Auto Loader

Ingiere de forma incremental y procesa eficientemente los archivos de datos nuevos a medida que llegan a las fuentes de almacenamiento en la nube compatibles (S3, ADLS, GCS).

Ingerir datos con Auto Loader

Carga manual de archivos

Carga archivos locales directamente a Databricks para crear una tabla Delta o guardar datos en volúmenes.

Cargar archivos a Databricks

Soporte nativo de SQL

Los usuarios de SQL pueden usar el comando COPY INTO para cargar datos de forma idempotente e incremental desde una ubicación de archivo hacia Databricks SQL, Databricks Notebooks y Databricks Jobs.

Ingerir datos con el comando COPY INTO
CASOS DE USO

Resolver los problemas de los clientes en una variedad de industrias

Precios

Los precios basados en el uso mantienen el gasto bajo control

Paga solo por los productos que usas, con granularidad por segundo.
Productos relacionados

Descubre más

Explora otras ofertas integradas e inteligentes en la plataforma de inteligencia de datos.

Trabajos de Lakeflow

Dota a tus equipos de herramientas para automatizar y orquestar mejor cualquier flujo de trabajo de ETL, análisis e IA con una profunda observabilidad, alta confiabilidad y amplio soporte de tipos de tareas.

Pipelines Declarativos de Spark

Simplifica el ETL por lotes y de transmisión con calidad de datos automatizada, captura de datos modificados (CDC), ingesta de datos, transformación y gobernanza unificada.

Unity Catalog

Controla sin problemas todos tus activos de datos con la única solución de gobernanza abierta y unificada de la industria para datos e IA, integrada en la plataforma de inteligencia de datos de Databricks.

Delta Lake

Unifica los datos en tu lakehouse, en todos los formatos y tipos, para todas tus cargas de trabajo de analítica e IA.

Comenzar

Preguntas frecuentes sobre la ingesta de datos

¿Estás listo para convertirte en una
empresa de datos e IA?

Da los primeros pasos en tu transformación de datos