Tutoriales
Descubra el poder de Lakehouse. Instala demos en tu espacio de trabajo para acceder rápidamente a las mejores prácticas de ingesta de datos, gobernanza, seguridad, ciencia de datos y almacenamiento de datos.


Tutoriales de inicio rápido
Instale demos directamente desde sus notebooks de Databricks
Carga el paquete dbdemos en una celda
Liste e instale cualquier demo
Explore todos los tutoriales

Spark Streaming - Avanzado
Análisis profundo de Spark Streaming con Delta para crear sesiones de usuario de aplicaciones web a partir de clics, con gestión personalizada del estado de agregación.

Orqueste y ejecute sus trabajos de DBT
Ejecute sus canalizaciones de dbt en producción con un SQL Warehouse. Aproveche Databricks Workflow (orquestación) y agregue una tarea de dbt en su canalización de transformación.

Canalización de CDC con Lakeflow Spark Declarative Pipeline
Ingiera el flujo de captura de datos de cambios (CDC) con APPLY INTO y simplifique la implementación de SCDT2.

Pruebas unitarias de pipelines declarativos de Lakeflow Spark para flujos de trabajo de nivel de producción.
Implemente canalizaciones declarativas robustas con pruebas unitarias que aprovechan las expectativas.

Delta Lake Iceberg
Almacena tu tabla con Delta Lake & descubre cómo Delta Lake puede simplificar tus Data Pipelines.

Databricks Auto Loader (Cloudfile)
Ingesta incremental en tu carpeta de almacenamiento en la nube.

Pipeline de CDC con Delta
Procese datos de CDC para crear una canalización completa y materialice sus tablas operativas en su lakehouse.

Introducción a Lakeflow Spark Declarative Pipeline - Bike
Ingiere datos de bicicletas en tiempo real para optimizar los alquileres y habilitar el mantenimiento predictivo.

MLOps: canalización de punta a punta
¡Automatiza la implementación de tu modelo con el webhook y el repositorio de MLFlow, de punta a punta!

API de Pandas con backend de Spark (Koalas)
Permita que su equipo de Ciencia de Datos escale a terabytes de datos mientras trabaja con la API de Pandas, sin tener que aprender & pasarse a otro framework.

Feature Store e inferencia en línea
Aproveche el Feature Store de Databricks con streaming y el almacén en línea.

Clasificación de imágenes: aprendizaje profundo para la detección de incumplimientos
Aprendizaje profundo con Databricks Lakehouse: detecte incumplimientos en PCB con transformadores de Hugging Face y PyTorch Lightning.

Sistemas agénticos: Implemente y evalúe aplicaciones RAG con la IA de Databricks
Aprenda a crear e implementar sus potentes agentes de IA mediante LLM fundacionales, generación aumentada por recuperación (RAG), búsqueda vectorial, extracción de PDF y Mosaic AI Agent Evaluation.

Databricks AI/BI: Análisis en mercados de capitales con paneles y Genie
Descubra cómo Databricks AI/BI puede cargar datos de manera eficiente y permitir a los usuarios finales analizar métricas en los mercados de capitales sin esfuerzo con AI/BI Genie y AI/BI Dashboards.

Databricks AI/BI: Revisión de soporte al cliente con paneles y Genie
La IA/BI de Databricks carga datos de manera eficiente y, con el Genio y los Paneles de IA/BI, permite a los usuarios finales analizar sin esfuerzo las métricas en la revisión de soporte al cliente. Aprende cómo

Databricks AI/BI: análisis de datos genómicos de pacientes con dashboards y Genie
Vea cómo la IA/BI de Databricks carga eficientemente los datos genómicos de los pacientes y permite a los usuarios finales que trabajan con ellos realizar análisis sin esfuerzo utilizando el Genio de IA/BI y los Paneles de IA/BI.

Databricks AI/BI: eficacia de las campañas de marketing con dashboards y Genie
Databricks AI/BI carga datos de campañas de marketing de manera eficiente y permite a los usuarios finales analizar sin esfuerzo la eficacia de las campañas con AI/BI Genie y AI/BI Dashboards. Descubre cómo.

Databricks AI/BI: visión general del pipeline de ventas con paneles y Genie
Para los pipelines de ventas, Databricks AI/BI carga datos de manera eficiente y permite a los usuarios finales realizar análisis sin esfuerzo con AI/BI Genie y AI/BI Dashboards. Descubre cómo.

IA/BI de Databricks: optimización de la cadena de suministro con paneles y el genio
Aprenda cómo Databricks AI/BI puede cargar datos de manera eficiente y permitir a los usuarios finales analizar sin esfuerzo la optimización de la cadena de suministro mediante AI/BI Genie y AI/BI Dashboards.

Funciones de IA: consulte el LLM con Databricks SQL
Llame al modelo de Azure OpenAI desde sus datos de Lakehouse con AI_GENERATE_TEXT().

Almacenamiento de datos con identidad, claves primarias/foráneas, procedimientos almacenados y bucles
¡Desbloquee nuevas características de SQL warehouse, como la compatibilidad con la definición de esquemas con columnas de autoincremento, claves primarias y foráneas, procedimientos almacenados, bucles y más!

Supervisa la calidad de tus datos con Lakehouse Monitoring
Aprende a crear fácilmente un monitor en cualquier tabla de Unity Catalog para obtener información sobre las tendencias y anomalías de los datos. Este tutorial cubre un caso de uso de venta minorista, el monitoreo de datos de transacciones y las mejores prácticas para configurar un monitor.

Delta Sharing - Aerolíneas
Comparta sus datos con organizaciones externas mediante Delta Sharing.

Actualizar tabla a Unity Catalog
Descubra cómo actualizar sus tablas de hive_metastore a Unity Catalog para beneficiarse de las capacidades de UC: seguridad, ACL, a nivel de fila, linaje y auditoría.

Linaje de datos con Unity Catalog
Descubra el linaje de datos con Unity Catalog: de tabla a tabla y de columna a columna.

ACL de tabla & vistas dinámicas con Unity Catalog
Descubre cómo conceder permisos con GRANT en tu tabla con UC e implementar un control más avanzado, como el enmascaramiento de datos a nivel de fila, según cada usuario.

Tablas del sistema: pronóstico de facturación, análisis de uso y auditoría de acceso con Databricks Unity Catalog
Realice un seguimiento y análisis del uso, la facturación y el acceso con las tablas del sistema de UC.

Acceder a los datos en una ubicación externa
Descubra cómo puede proteger archivos o tablas en una ubicación externa (almacenamiento en la nube como S3, ADLS o GCS) con un simple comando GRANT.
dbdemos se distribuye como un proyecto de GitHub
Para obtener más detalles, por favor, abra el archivo README.md de GitHub y siga la documentación.
dbdemos se proporciona tal cual. Consulte la Licencia para obtener más información. Databricks no ofrece soporte oficial para dbdemos ni para los activos asociados.
Si tiene algún problema, abra un issue y el equipo de demostración lo analizará haciendo su mejor esfuerzo. Consulte el Aviso para obtener más información.






