Automated Deployment with Databricks Asset Bundles - Portuguese BR
Este curso oferece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais conceitos de DevOps, DataOps, continuous integration (CI), continuous deployment (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.
Em seguida, o curso se concentra na continuous deployment dentro do processo de CI/CD, examinando ferramentas como a Databricks REST API, o SDK e a CLI para a implantação de projetos. Você aprenderá sobre os Databricks Asset Bundles (DABs) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, estrutura de pastas e como eles otimizam a implantação em vários ambientes de destino na Databricks. Você também aprenderá como adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com diferentes configurações usando a Databricks CLI.
Por fim, o curso apresenta o Visual Studio Code como um Interactive Development Environment (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso conclui com uma introdução à automação de pipelines de implantação usando o GitHub Actions para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.
Ao final deste curso, você estará apto a automatizar implantações de projetos Databricks com Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.
Nota: Este curso é o quarto da série “Engenharia de dados avançada com Databricks”.
Languages Available: English | 日本語 | Português BR | 한국어
Competências/conhecimentos/habilidades:
• Sólido conhecimento da Databricks Platform, incluindo experiência com Databricks Workspaces, Apache Spark, Delta Lake, a arquitetura Medallion, Unity Catalog, Delta Live Tables e Workflows. Em particular, conhecimento sobre como aproveitar Expectations com DLTs.
• Experiência em ingestão e transformação de dados, com proficiência em PySpark para processamento de dados e manipulação de DataFrames. Os candidatos também devem ter experiência em escrever SQL queries de nível intermediário para análise e transformação de dados.
• Proficiência em programação Python, incluindo a capacidade de projetar e implementar funções e classes, e experiência com a criação, importação e utilização de pacotes Python.
• Familiaridade com práticas de DevOps, particularmente princípios de continuous integration and continuous delivery/deployment (CI/CD).
• Conhecimento básico de controle de versão Git.
• Pré-requisito: Curso Fundamentos de DevOps para Engenharia de Dados
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Registration options
Databricks has a delivery method for wherever you are on your learning journey
Self-Paced
Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos
Registre-se agoraInstructor-Led
Public and private courses taught by expert instructors across half-day to two-day courses
Registre-se agoraBlended Learning
Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase
Purchase nowSkills@Scale
Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

