Ir para o conteúdo principal

AI/BI for Data Analysts - Portuguese BR

Neste curso, você aprenderá a usar os recursos que o Databricks fornece para as necessidades de business intelligence: Painéis de IA/BI e AI/BI Genie. Como Analista de Dados da Databricks, você terá a tarefa de criar Painéis de IA/BI e AI/BI Genie Spaces dentro da plataforma, gerenciar o acesso a esses ativos pelas partes interessadas e necessárias e manter esses ativos à medida que são editados, atualizados ou desativados ao longo de sua vida útil. Este curso pretende instruir os participantes sobre como projetar painéis para percepções de negócios, compartilhá-los com colaboradores e partes interessadas e manter esses ativos dentro da plataforma. Os participantes também aprenderão a utilizar os AI/BI Genie Spaces para dar suporte à análise de autoatendimento por meio da criação e manutenção desses ambientes alimentados pelo Databricks Data Intelligence Engine.


Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Skill Level
Associate
Duration
4h
Prerequisites

competências/conhecimentos/habilidades:

  • Uma compreensão básica de SQL para fazer query das tabelas de dados existentes no Databricks.
  • Experiência anterior ou familiaridade básica com a interface do usuário do Databricks Workspace.
  • Uma compreensão básica do propósito e uso dos resultados da análise estatística.
  • Familiaridade com os conceitos em torno de painéis utilizados para business intelligence.

Outline

Painéis e visualizações em Databricks

Introdução e Visão Geral

Painéis de IA/BI

O essencial de SQL

Projetando datasets para painéis

Criando visualizações e adicionando estatísticas de resumo a painéis

Recursos aprimorados de IA

Filtros e parâmetros

Compartilhando painéis com partes interessadas e outras pessoas

Gerenciando painéis em produção

Painel e atividade prática de visualização


AI/BI Genie

Introdução e Visão Geral

AI/BI Genie

Desenvolvendo Genie Spaces

Compartilhando Genie Spaces

Mantendo Genie Spaces

Laboratório de Atividades de Desenvolvimento de AI/BI Genie

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Registre-se agora

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Registre-se agora

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Build Data Pipelines with Lakeflow Spark Declarative Pipelines - Portuguese BR

Este curso apresenta aos usuários os conceitos e habilidades essenciais necessários para criar pipelines de dados usando Lakeflow Spark Declarative Pipelines em Databricks para ingestão e processamento incrementais em lote ou transmissão por meio de várias streaming tables e materialized views. Projetado para engenheiros de dados novos em Spark Declarative Pipelines, o curso fornece uma visão geral abrangente dos principais componentes, como processamento incremental de dados, streaming tables, materialized views e views temporárias, destacando suas finalidades e diferenças específicas.

Os tópicos abordados incluem:

- Desenvolvimento e depuração de pipelines ETL com o editor de vários arquivos no Lakeflow usando SQL (com exemplos de código Python fornecidos)

- Como os Lakeflow Spark Declarative Pipelines acompanham dependências de dados em um pipeline através do gráfico de pipeline

- Configuração de recursos de compute do pipeline, ativos de dados, modos de gatilho e outras opções avançadas.

 Em seguida, o curso apresenta as expectativas de qualidade de dados no Spark Declarative Pipelines, orientando os usuários pelo processo de integração de expectativas em pipelines para validar e impor a integridade dos dados. Em seguida, os alunos explorarão como colocar um pipeline em produção, incluindo opções de agendamento, modo de produção e habilitação do log de eventos do pipeline para monitorar o desempenho e a integridade do pipeline.

 Finalmente, o curso aborda como implementar a captura de dados de alterações (CDC) usando a sintaxe AUTO CDC INTO dentro dos Spark Declarative Pipelines para gerenciar dimensões que mudam lentamente (SCD Tipo 1 e Tipo 2), preparando os usuários para integrar CDC em seus próprios pipelines.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate
Data Engineer

Data Ingestion with Lakeflow Connect - Portuguese BR

"Este curso fornece uma introdução abrangente ao Lakeflow Connect, uma solução escalável e simplificada para a ingestão de dados em Databricks de uma ampla gama de fontes. Você começará explorando os diferentes tipos de conectores Lakeflow Connect (Padrão e Gerenciado) e aprenderá várias técnicas de ingestão de dados, incluindo ingestão em lote, lote incremental e transmissão. Você também analisará os principais benefícios do uso de tabelas Delta e da arquitetura Medallion.

Em seguida, você desenvolverá habilidades práticas para ingerir dados do armazenamento de objetos do Cloud usando os conectores padrão do Lakeflow Connect. Isso inclui trabalhar com métodos como CREATE TABLE AS SELECT (CTAS), COPY INTO e Auto Loader, com ênfase nos benefícios e considerações de cada abordagem. Você também aprenderá a acrescentar colunas de metadados às tabelas de nível bronze durante a ingestão no Databricks Data Intelligence Platform. Em seguida, o curso aborda como lidar com registros que não correspondem ao esquema da tabela usando a coluna de dados resgatados, juntamente com estratégias para gerenciar e analisar esses dados. Você também explorará técnicas para ingerir e nivelar dados JSON semiestruturados.

Em seguida, você explorará como executar a ingestão de dados de nível empresarial usando os Conectores Gerenciados do Lakeflow Connect  para trazer dados de bancos de dados e aplicativos de software como serviço (SaaS). O curso também apresenta o Partner Connect como uma opção para integrar ferramentas de parceiros em seus fluxos de trabalho de ingestão.

Finalmente, o curso termina com estratégias alternativas de ingestão, incluindo operações MERGE INTO e alavancagem do Databricks Marketplace, equipando você com uma base sólida para dar suporte a casos de uso modernos de engenharia de dados."

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.