Ingesta de datos con la plataforma de inteligencia de datos de Databricks
Tipo de demostración
Tutorial del producto
Duración
A tu propio ritmo
Contenido relacionad
Lo que aprenderás
Con la plataforma de inteligencia de datos de Databricks, puedes ingestar datos fácilmente desde cualquier fuente en un Lakehouse unificado. Ya sea por lotes, en streaming o mediante la captura de datos de cambios (CDC), Databricks ofrece herramientas rápidas, confiables y escalables para reunir todos tus datos.
Explore la ingesta de datos con Databricks, incluidos Lakeflow Connect, SQL read files y Auto Loader. Las funcionalidades principales incluyen:
Conectividad universal a aplicaciones, bases de datos y almacenamiento en la nube
Ingesta automatizada e incremental con Auto Loader y Lakeflow Connect
Disponibilidad en tiempo real para obtener información instantánea y dashboards
Gobernanza integrada a través de Unity Catalog
Pipelines simplificados con Spark Declarative Pipelines
Para instalar el demo, obtenga un área de trabajo gratuita de Databricks y ejecute los siguientes dos comandos en un notebook de Python
Dbdemos es una biblioteca de Python que instala demostraciones completas de Databricks en sus áreas de trabajo. Dbdemos cargará e iniciará notebooks, pipelines de DLT, clústeres, paneles de Databricks SQL, modelos de warehouse… Consulta cómo usar dbdemos.
Dbdemos se distribuye como un proyecto de GitHub.
Para más detalles, consulte en GitHub el archivo README.md y siga la documentación.
Dbdemos se proporciona tal cual. Consulte la Licencia y el Aviso para obtener más información.
Databricks no ofrece soporte oficial para dbdemos ni los activos asociados.
Para cualquier problema, abra un ticket y el equipo de demos lo revisará en la medida de lo posible.
Nota: En el Data + AI Summit de junio de 2025, Databricks lanzó Lakeflow. Lakeflow unifica la ingeniería de datos con Lakeflow Connect, Spark Declarative Pipelines (antes conocido como DLT) y Lakeflow Jobs (antes conocidos como Workflows).

