Ir para o conteúdo principal

Generative AI Engineering with Databricks - Portuguese BR

Este curso é destinado a cientistas de dados, engenheiros de aprendizado de máquina e outros profissionais de dados que desejam criar aplicativos de IA generativa usando as estruturas mais recentes e populares e os recursos do Databricks. 

A seguir, descrevemos cada um dos quatro módulos de quatro horas incluídos neste curso.


Observação: a Databricks Academy está mudando para um formato baseado em cadernos para as aulas presenciais no ambiente Databricks, descontinuando o uso de apresentações de slides nas duas primeiras módulos. Você pode acessar os cadernos das aulas no ambiente de laboratório Vocareum.


Building Retrieval Agents On Databricks: Este curso oferece formação prática para a criação de agentes de recuperação na Databricks Data Intelligence Platform. Os participantes aprenderão a analisar documentos não estruturados e a convertê-los em dados estruturados, a transformar e segmentar conteúdo para workflows de recuperação, a criar soluções de vector search para recuperação de documentos e a desenvolver agentes prontos para produção utilizando MLflow e Agent Bricks. O curso abrange todo o ciclo de vida do agente, desde o processamento de documentos até à geração de incorporações, vector indexing e implantação do agente com capacidades de governação.


Building Single-Agent Applications on Databricks: Este curso oferece formação prática para a criação de aplicações de agente único na Databricks Data Intelligence Platform. Os alunos aprenderão a criar AI Agents que utilizam as funções do Unity Catalog como ferramentas, a implementar um rastreio e monitorização abrangentes com o MLflow e a implementar agentes utilizando frameworks tradicionais como o LangChain e soluções modernas como o Agent Bricks. O curso abrange todo o ciclo de vida do agente, desde a criação e teste iniciais da ferramenta no AI Playground até à implementação em produção, com recursos de governação, avaliação e melhoria contínua.


Generative AI Application Evaluation and Governance: Esta é sua introdução à avaliação e à governança de sistemas de IA generativa. Primeiro, você explorará o significado e a motivação para criar sistemas de avaliação e governança/segurança. Em seguida, conectaremos os sistemas de avaliação e governança à plataforma de inteligência de dados da Databricks. Em terceiro lugar, ensinaremos a você uma variedade de técnicas de avaliação para componentes e tipos de aplicativos específicos. Por fim, o curso será concluído com uma análise da avaliação de sistemas completos de IA com relação ao desempenho e ao custo.


Generative AI Application Deployment and Monitoring: Pronto para aprender a implantar, operacionalizar e monitorar aplicativos de IA generativa? Este módulo o ajudará a adquirir habilidades na implantação de aplicativos de IA generativa usando ferramentas como o Model Serving. Também abordaremos como operacionalizar aplicativos de IA generativa seguindo as práticas recomendadas e as arquiteturas recomendadas. Por fim, discutiremos a ideia de monitorar aplicativos de IA generativa e seus componentes usando o Lakehouse Monitoring.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
16h
Prerequisites

O conteúdo foi desenvolvido para participantes com essas competências/conhecimentos/habilidades:

• Capacidade de escrever código Python de qualidade de produção, incluindo POO, tratamento de exceções, decoradores, type hints e documentação adequada.

• Experiência na escrita de consultas SQL SELECT avançadas, manipulação de tipos de dados e valores NULL e criação de funções SQL reutilizáveis e bem documentadas.

• Facilidade para navegar no workspace e nos notebooks do Databricks, gerenciar compute, usar o Catalog Explorer e compreender serviços gerenciados pelo Databricks.

• Compreensão do comportamento de LLM, engenharia de prompts básica, conceitos de RAG, raciocínio de agentes e trabalho com APIs REST e payloads JSON.

• Familiaridade básica com MLflow, frameworks de agentes (por exemplo, LangChain) e treinamentos recomendados do Databricks, como AI Agents Fundamentals.

• Familiaridade com conceitos de processamento de linguagem natural.

• Familiaridade com engenharia de prompts/melhores práticas de engenharia de prompts.

• Familiaridade com a Databricks Data Intelligence Platform.

• Familiaridade com RAG (preparação de dados, construção de uma arquitetura RAG, conceitos como embedding, vetores, bancos de dados vetoriais etc.).

• Experiência na criação de aplicações de LLM usando cadeias de LLM com raciocínio em múltiplas etapas e agentes.

• Experiência com ferramentas da Databricks Data Intelligence Platform para avaliação e governança.

• Compreensão dos conceitos do Unity Catalog, incluindo catálogos e esquemas.

• Conhecimento básico de MLflow.

Outline

Building Retrieval Agents On Databricks

• Análise e fragmentação de documentos

• Vector Search para recuperação

• Criação e registro de agentes de recuperação

• Agent Bricks


Building Single-Agent Applications on Databricks

• Fundamentos de agentes

• Criação de agentes individuais

• Agentes reproduzíveis

• Agentes prontos para produção com Agent Bricks


Generative AI Application Evaluation and Governance

• Importância da avaliação de aplicações GenAI

• Proteção e governança de aplicações GenAI

• Técnicas de avaliação de GenAI

• Avaliação de aplicações de ponta a ponta


Generative AI Application Deployment and Monitoring

• Fundamentos de implantação de modelos

• Implantação em lote

• Implantação em tempo real

• Monitoramento de sistemas de IA

• Conceitos de LLMOps

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Registre-se agora

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Registre-se agora

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Data Engineer

Automated Deployment with Databricks Asset Bundles - Portuguese BR

Este curso oferece uma revisão abrangente dos princípios de DevOps e sua aplicação em projetos Databricks. Ele começa com uma visão geral dos principais conceitos de DevOps, DataOps, continuous integration (CI), continuous deployment (CD) e testes, e explora como esses princípios podem ser aplicados a pipelines de engenharia de dados.

Em seguida, o curso se concentra na continuous deployment dentro do processo de CI/CD, examinando ferramentas como a Databricks REST API, o SDK e a CLI para a implantação de projetos. Você aprenderá sobre os Databricks Asset Bundles (DABs) e como eles se encaixam no processo de CI/CD. Você se aprofundará em seus principais componentes, estrutura de pastas e como eles otimizam a implantação em vários ambientes de destino na Databricks. Você também aprenderá como adicionar variáveis, modificar, validar, implantar e executar Databricks Asset Bundles para vários ambientes com diferentes configurações usando a Databricks CLI.

Por fim, o curso apresenta o Visual Studio Code como um Interactive Development Environment (IDE) para criar, testar e implantar Databricks Asset Bundles localmente, otimizando seu processo de desenvolvimento. O curso conclui com uma introdução à automação de pipelines de implantação usando o GitHub Actions para aprimorar o fluxo de trabalho de CI/CD com Databricks Asset Bundles.

Ao final deste curso, você estará apto a automatizar implantações de projetos Databricks com Databricks Asset Bundles, melhorando a eficiência por meio de práticas de DevOps.

Languages Available: English | 日本語 | Português BR | 한국어

Paid
4h
Lab
instructor-led
Professional
Data Engineer

DevOps Essentials for Data Engineering - Portuguese BR

Este curso explora as melhores práticas de engenharia de software e os princípios de DevOps, projetados especificamente para engenheiros de dados que trabalham com Databricks. Os participantes construirão uma base sólida em tópicos-chave, como qualidade de código, controle de versão, documentação e testes. O curso enfatiza o DevOps, abordando os principais componentes, os benefícios e o papel da continuous integration e delivery (CI/CD) na otimização dos fluxos de trabalho de engenharia de dados.

Você aprenderá a aplicar princípios de modularidade no PySpark para criar componentes reutilizáveis e estruturar código de forma eficiente. A experiência prática inclui o projeto e a implementação de testes unitários para funções do PySpark usando a estrutura pytest, seguidos por testes de integração para pipelines de dados Databricks com DLT (Delta Live Tables) e fluxos de trabalho para garantir a confiabilidade.

O curso também aborda operações essenciais do Git no Databricks, incluindo o uso de pastas Git do Databricks para integrar práticas de integração contínua. Por fim, você examinará de alto nível vários métodos de implantação de ativos do Databricks, como REST API, CLI, SDK e DABs (Databricks Asset Bundles), fornecendo o conhecimento de técnicas para implantar e gerenciar seus pipelines.

Ao final do curso, você será proficiente em software engineering e práticas recomendadas de DevOps, permitindo que você crie soluções de engenharia de dados escaláveis, sustentáveis e eficientes.

Languages Available: English | 日本語 | Português BR | 한국어 | Español | française

Paid
4h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.