Ir al contenido principal

SQL Analytics on Databricks - Spanish

En este curso, aprenderá cómo usar Databricks de manera efectiva para el análisis de datos, con un enfoque específico en Databricks SQL. Como analista de datos Databricks, sus responsabilidades incluirán encontrar datos relevantes, analizarlo para aplicaciones potenciales y transformarlo en formatos que proporcionen valiosas perspectivas comerciales. 


También comprenderá su papel en la gestión de objetos de datos y cómo manipularlos dentro de la Plataforma de Inteligencia de Datos de Databricks, utilizando herramientas como Notebooks, SQL Editor y Databricks SQL. 


Además, aprenderá sobre la importancia de Unity Catalog en la gestión de activos de datos y la plataforma en general. Finalmente, el curso proporcionará una descripción general de cómo Databricks facilita la optimización del rendimiento y le enseñará cómo acceder a Query Insights para comprender los procesos que ocurren detrás de escena al ejecutar análisis de SQL en Databricks.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
4h
Prerequisites

El contenido fue desarrollado para participantes con estas habilidades/conocimientos/capacidades:
• Un conocimiento práctico del uso de SQL para fines de análisis de datos. 

• Familiarícese con la forma en que se crean, almacenan y administran los datos. 

• Una comprensión básica del análisis estadístico.

• Comprender la estructura y las características definitorias de formatos de datos específicos como CSV, JSON, TXT y Parquet.

• Familiarícese con la interfaz de usuario del Databricks Data Intelligence Platform.

Outline

Descubrimiento de datos

Uso de Unity Catalog como herramienta de descubrimiento de datos

Comprensión de los datos Propiedad del objeto

Laboratorio: Use Unity Catalog para localizar e inspeccionar Datasets


Importación de datos

Ingesta de datos en Databricks

Demo: Carga de datos en Databricks Uso de la interfaz de usuario

Demo: Programático exploración y datos ingesta en Unity Catalog

Laboratorio: Importar datos en Databricks


SQL Execution

Databricks SQL y Databricks SQL Warehouses

Demo: El editor unificado SQL

Demo: Manipular y transforme datos con Databricks SQL

Demo: Creación de vistas con Databricks SQL

Laboratorio: Manipular y analizar una tabla


Análisis de consultas

Databricks Photon y Optimización en Databricks

Demo: Insights de consulta

Prácticas recomendadas para el análisis de SQL

Inscripción a clases públicas

Si su empresa ha adquirido créditos de servicio (Success Credits) o cuenta con una suscripción de aprendizaje, por favor complete el formulario de Solicitud de Capacitación. De lo contrario, puede registrarse a continuación.

Solicitud de clase privada

Si su empresa está interesada en capacitación privada, envíe una solicitud.

Ver todas nuestras opciones de inscripción

Registration options

Databricks ofrece modalidades de aprendizaje para acompañarlo en todo su recorrido.

Runtime

A tu propio ritmo

Rutas de aprendizaje personalizadas para roles y trayectorias profesionales de datos, analítica e IA, con videos a pedido.

Regístrese ahora

Instructors

Instruido por expertos

Cursos públicos y privados impartidos por instructores expertos en sesiones de medio día o dos días.

Regístrese ahora

Learning

Aprendizaje combinado (Blended Learning)

Sesiones semanales dirigidas por un instructor, junto con opciones a tu propio ritmo, para todos los estilos de aprendizaje, optimizando la finalización y la retención del conocimiento. Visite la pestaña “Catálogo de suscripciones” para comprar.

Comprar ahora

Scale

Skills@Scale

Oferta de capacitación integral para clientes a gran escala que incluye elementos para todos los estilos de aprendizaje. Consulte con su ejecutivo de cuenta para obtener más detalles.

Próximas clases públicas

Data Engineer

DevOps Essentials for Data Engineering - Spanish

Este curso explora las mejores prácticas de ingeniería de software y los principios de DevOps, diseñados específicamente para ingenieros de datos que trabajan con Databricks. Los participantes construirán una base sólida en temas clave como la calidad del código, el control de versiones, la documentación y las pruebas. El curso enfatiza DevOps, cubriendo los componentes centrales, los beneficios y el papel de la integración y entrega continuas (CI/CD) en la optimización de Lakeflow jobs de ingeniería de datos.

Aprenderá cómo aplicar los principios de modularidad en PySpark para crear componentes reutilizables y estructurar código de manera eficiente. La experiencia práctica incluye el diseño e implementación de pruebas unitarias para funciones PySpark utilizando el framework pytest, seguidas de pruebas de integración para pipeline de datos de Databricks con SDP y Lakeflow Jobs para garantizar la confiabilidad.

El curso también cubre las operaciones esenciales de Git dentro de Databricks, incluido el uso de carpetas Databricks Git para integrar prácticas de integración continua. Por último, analizará varios métodos de implementación de activos de Databricks, como REST API, CLI, SDK, y Databricks Asset Bundles (DAB), lo que le proporcionará el conocimiento de las técnicas para implementar y administrar sus canalizaciones.

Al final del curso, dominará la ingeniería de software y las mejores prácticas DevOps, lo que le permitirá crear soluciones de ingeniería de datos escalables, mantenibles y eficientes.

Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Paid
4h
Lab
instructor-led
Associate

¿Preguntas?

Si tiene alguna pregunta, consulte nuestra página de Preguntas frecuentes (FAQ).