Ir para o conteúdo principal

Data Analysis with Databricks - Portuguese BR

Este curso fornece uma introdução abrangente ao Databricks SQL. Os alunos irão ingerir dados, escrever queries, produzir visualizações e painéis e configurar alertas. Este curso irá prepará-lo para fazer o exame Analista Associado de Dados, Certificado da Databricks. Este curso é composto por dois módulos de quatro horas.

 

SQL Analytics on Databricks

Neste curso, você aprenderá a usar efetivamente a Databricks para análise de dados, com foco específico no Databricks SQL. Como Analista de Dados da Databricks, suas responsabilidades incluirão encontrar dados relevantes, analisá-los para possíveis aplicações e transformá-los em formatos que forneçam percepções de negócios valiosos. 

Você também entenderá sua função no gerenciamento de objetos de dados e como manipulá-los na Databricks Data Intelligence Platform, usando ferramentas como Notebooks, Editor SQL e Databricks SQL. 

Além disso, você aprenderá sobre a importância do Unity Catalog no gerenciamento de ativos de dados e da plataforma como um todo. Por fim, o curso fornecerá uma visão geral de como o Databricks facilita a otimização de desempenho e ensinará como acessar percepções de query para entender os processos que ocorrem nos bastidores ao executar a analítica SQL no Databricks.


AI/BI for Data Analysts

Neste curso, você aprenderá a usar os recursos que o Databricks fornece para as necessidades de business intelligence: Painéis de IA/BI e AI/BI Genie. Como Analista de Dados da Databricks, você terá a tarefa de criar Painéis de IA/BI e AI/BI Genie Spaces dentro da plataforma, gerenciar o acesso a esses ativos pelas partes interessadas e necessárias e manter esses ativos à medida que são editados, atualizados ou desativados ao longo de sua vida útil. Este curso pretende instruir os participantes sobre como projetar painéis para percepções de negócios, compartilhá-los com colaboradores e partes interessadas e manter esses ativos dentro da plataforma. Os participantes também aprenderão a utilizar os AI/BI Genie Spaces para dar suporte à análise de autoatendimento por meio da criação e manutenção desses ambientes alimentados pelo Databricks Data Intelligence Engine.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
8h
Prerequisites
  • Conhecimento prático do uso de SQL para fins de análise de dados. 
  • Estar familiarizado com a forma como os dados são criados, armazenados e gerenciados. 
  • Noções básicas de análise estatística.
  • Entender a estrutura e as características definidoras de formatos de dados específicos, como CSV, JSON, TXT e Parquet.
  • Estar familiarizado com a interface de usuário da Databricks Data Intelligence Platform.
  • Uma compreensão básica de SQL para fazer query das tabelas de dados existentes no Databricks.
  • Experiência anterior ou familiaridade básica com a interface do usuário do Databricks Workspace.
  • Uma compreensão básica do propósito e uso dos resultados da análise estatística.
  • Familiaridade com os conceitos em torno de painéis utilizados para business intelligence.

Outline

SQL Analytics on Databricks

Descobrimento de dados 

Usando o Unity Catalog como uma ferramenta de descoberta de dados

Entendendo os dados Propriedade do objeto

Usar o Unity Catalog para Localizar e inspecionar Datasets


Importação de dados

Ingestão de dados em Databricks

Carregando dados para Databricks usando a interface do usuário

Exploração Programático e Ingestão de  Dados ao Unity Catálogo

Importar dados para Databricks


Execução de SQL

Databricks SQL e Databricks SQL Warehouses

O Editor SQL Unificado 

Manipular e Transformar Dados com Databricks SQL

Criando views com Databricks SQL

Manipular e analisar uma tabela


Análise de Query

Databricks Photon e otimização em Databricks

Percepções de queries 

Práticas recomendadas para Análise SQL


AI/BI for Data Analysts

Painéis e visualizações em Databricks

Introdução e Visão Geral

Painéis de IA/BI

O essencial de SQL

Projetando datasets para painéis

Criando visualizações e adicionando estatísticas de resumo a painéis

Recursos aprimorados de IA

Filtros e parâmetros

Compartilhando painéis com partes interessadas e outras pessoas

Gerenciando painéis em produção

Painel e atividade prática de visualização


AI/BI Genie

Introdução e Visão Geral

AI/BI Genie

Desenvolvendo Genie Spaces

Compartilhando Genie Spaces

Mantendo Genie Spaces

Laboratório de Atividades de Desenvolvimento de AI/BI Genie

Upcoming Public Classes

Date
Time
Language
Price
Sep 15
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1000.00
Oct 13
09 AM - 05 PM (America/Sao_Paulo)
Portuguese - BR
$1000.00

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Register now

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Register now

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

DevOps Essentials for Data Engineering - Portuguese BR

Este curso explora as melhores práticas de engenharia de software e os princípios de DevOps, projetados especificamente para engenheiros de dados que trabalham com Databricks. Os participantes construirão uma base sólida em tópicos-chave, como qualidade de código, controle de versão, documentação e testes. O curso enfatiza o DevOps, abordando os principais componentes, os benefícios e o papel da continuous integration e delivery (CI/CD) na otimização dos fluxos de trabalho de engenharia de dados.

Você aprenderá a aplicar princípios de modularidade no PySpark para criar componentes reutilizáveis e estruturar código de forma eficiente. A experiência prática inclui o projeto e a implementação de testes unitários para funções do PySpark usando a estrutura pytest, seguidos por testes de integração para pipelines de dados Databricks com DLT (Delta Live Tables) e fluxos de trabalho para garantir a confiabilidade.

O curso também aborda operações essenciais do Git no Databricks, incluindo o uso de pastas Git do Databricks para integrar práticas de integração contínua. Por fim, você examinará de alto nível vários métodos de implantação de ativos do Databricks, como REST API, CLI, SDK e DABs (Databricks Asset Bundles), fornecendo o conhecimento de técnicas para implantar e gerenciar seus pipelines.

Ao final do curso, você será proficiente em software engineering e práticas recomendadas de DevOps, permitindo que você crie soluções de engenharia de dados escaláveis, sustentáveis e eficientes.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate
Data Engineer

Data Ingestion with Lakeflow Connect - Portuguese BR

"Este curso fornece uma introdução abrangente ao Lakeflow Connect, uma solução escalável e simplificada para a ingestão de dados em Databricks de uma ampla gama de fontes. Você começará explorando os diferentes tipos de conectores Lakeflow Connect (Padrão e Gerenciado) e aprenderá várias técnicas de ingestão de dados, incluindo ingestão em lote, lote incremental e transmissão. Você também analisará os principais benefícios do uso de tabelas Delta e da arquitetura Medallion.

Em seguida, você desenvolverá habilidades práticas para ingerir dados do armazenamento de objetos do Cloud usando os conectores padrão do Lakeflow Connect. Isso inclui trabalhar com métodos como CREATE TABLE AS SELECT (CTAS), COPY INTO e Auto Loader, com ênfase nos benefícios e considerações de cada abordagem. Você também aprenderá a acrescentar colunas de metadados às tabelas de nível bronze durante a ingestão no Databricks Data Intelligence Platform. Em seguida, o curso aborda como lidar com registros que não correspondem ao esquema da tabela usando a coluna de dados resgatados, juntamente com estratégias para gerenciar e analisar esses dados. Você também explorará técnicas para ingerir e nivelar dados JSON semiestruturados.

Em seguida, você explorará como executar a ingestão de dados de nível empresarial usando os Conectores Gerenciados do Lakeflow Connect  para trazer dados de bancos de dados e aplicativos de software como serviço (SaaS). O curso também apresenta o Partner Connect como uma opção para integrar ferramentas de parceiros em seus fluxos de trabalho de ingestão.

Finalmente, o curso termina com estratégias alternativas de ingestão, incluindo operações MERGE INTO e alavancagem do Databricks Marketplace, equipando você com uma base sólida para dar suporte a casos de uso modernos de engenharia de dados."

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate
Data Engineer

Automated Deployment with Databricks Asset Bundles - Portuguese BR

Este curso fornece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais DevOps, DataOps, integração contínua (CI), implantação contínua (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.

Em seguida, o curso se concentra na implantação contínua dentro do processo de CI/CD, examinando ferramentas como a API REST do Databricks, o SDK e a CLI para implantação de projetos. Você aprenderá sobre os DABs (Asset Bundles, pacotes de ativos do Databricks) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, na estrutura de pastas e em como eles simplificam a implantação em vários ambientes de destino no Databricks. Você também aprenderá a adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com configurações diferentes usando a CLI do Databricks.

Por fim, o curso apresenta o Visual Studio Code como um ambiente de desenvolvimento interativo (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso termina com uma introdução à automação de pipelines de implantação usando ações do GitHub para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.

Ao final deste curso, você estará equipado para automatizar as implantações de projetos do Databricks com os Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.