Ir para o conteúdo principal

O que é Observabilidade de Dados?

A observabilidade de dados é a prática e os processos envolvidos no monitoramento contínuo da saúde, qualidade, confiabilidade e desempenho em sistemas de dados — desde pipelines de ingestão até camadas de armazenamento e análises downstream — para que as organizações possam detectar, diagnosticar e prevenir problemas de dados antes que causem impacto nos negócios. Concentra-se em entender o estado dos dados ao longo de todo o seu ciclo de vida por meio de atividades como monitoramento automatizado, detecção de anomalia, análise de causa raiz e acompanhamento da linhagem de dados. Essas atividades ajudam as organizações a evitar o tempo de inatividade dos dados e a garantir dados precisos, confiáveis e de alta qualidade.

Continue explorando

Big Book of Data Engineering

Seu guia essencial para as melhores práticas de engenharia de dados.

Leia o artigo

Aprenda a criar pipelines ETL com SQL

Realize transformações de dados sem suporte de engenharia de dados.

Leia o artigo

Aprenda engenharia de dados agora

Aumente o nível de suas habilidades e ganhe um certificado de conclusão.

Comece agora

Por que a observabilidade de dados é importante

A observabilidade de dados ajuda você a criar pipelines de dados confiáveis. Isso é importante para as organizações data-driven de hoje devido à crescente complexidade de seus pipelines de dados, que dependem de fontes de dados distribuídas internas e externas. Os ambientes de dados atuais podem usar várias ferramentas de ingestão em diversas equipes e armazenar dados em data lakes, warehouses e lakehouses. A observabilidade de dados tem um grande impacto na qualidade dos dados, ajudando a detectar problemas precocemente, como dados obsoletos, registros ausentes, alterações de esquema, aumentos inesperados de volume e transformações incorretas.

A detecção precoce de problemas de dados e a visibilidade da linhagem de ponta a ponta podem melhorar a analítica downstream, as operações e a tomada de decisão, além de evitar problemas de confiança nos dados antes que cheguem aos usuários ou consumidores. A observabilidade ajuda não apenas a garantir que os dados permaneçam confiáveis, mas também pode impulsionar a receita, melhorar a experiência do cliente e acelerar a inovação.

Os Cinco Pilares da Observabilidade de Dados

A indústria geralmente descreve a observabilidade usando cinco pilares:

  • Atualidade: Os dados estão atualizados? Os pipelines são executados conforme o esperado? A observabilidade pode detectar se as tabelas estão obsoletas, se há jobs com falha ou ingestão atrasada.
  • Volume: Os dados estão dentro dos limites esperados de tamanho dos dados? A observabilidade pode detectar anomalias, como registros ausentes, dados duplicados e picos ou quedas inesperadas no volume.
  • Distribuição: Você consegue identificar mudanças nas propriedades estatísticas? Os valores parecem normais? A observabilidade pode detectar outliers, mudanças na taxa de nulos, drift e quaisquer anomalias nas métricas de negócios.
  • Esquema: Há mudanças estruturais inesperadas? A observabilidade pode detectar adições ou remoções de colunas, alterações de tipo e alterações que afetam tabelas ou dashboards downstream.
  • Linhagem: Como os dados fluem através e entre os sistemas? A observabilidade pode ajudar a entender as dependências upstream e downstream, quais dashboards ou modelos do machine learning serão interrompidos e as causas-raiz das falhas de dados.

Como a Observabilidade de Dados funciona

A observabilidade de dados funciona por meio do monitoramento contínuo dos sistemas de dados usando verificações estatísticas automatizadas, análise de metadados e mapeamento de linhagem para detectar e diagnosticar problemas de dados em tempo real. Ela coleta sinais e telemetria usados para monitorar as cinco dimensões-chave da integridade dos dados (atualidade, volume, esquema, distribuição, linhagem). Ela coleta e analisa sinais como atualizações de tabelas, logs de query, status de jobs, alertas, metadados de esquema, contagens de linhas e informações de gráficos de dependência.

Ele realiza verificações automatizadas de qualidade de dados usando padrões históricos, modelos estatísticos, machine learning e algoritmos de detecção para visibilidade de ponta a ponta em pipelines, warehouses e aplicações. Quando ocorrem falhas nos dados, as ferramentas de observabilidade podem analisar falhas de pipeline, alterações de esquema, quedas de volume, implantações de código e interrupções no upstream e expor automaticamente a causa mais provável e enviar alertas.

Painéis e monitoramento contínuo podem viabilizar e garantir o cumprimento de acordos de nível de serviço de dados e manter a confiança nos dados em toda a organização.

Observabilidade de dados vs. Monitoramento de dados vs. Qualidade de dados

Observabilidade e monitoramento tradicional estão relacionados, mas as ferramentas de monitoramento tradicional se concentram em falhas conhecidas, enquanto a observabilidade fornece visibilidade do comportamento do sistema para ajudar a identificar e diagnosticar novos tipos de falhas e permitir a análise da causa raiz. Em outras palavras, o monitoramento detecta sintomas, e a observabilidade fornece percepções mais profundas para dar contexto, não apenas sinais brutos para mostrar por que as coisas estão falhando.

O monitoramento tradicional é reativo, rastreia métricas conhecidas e fornece verificações baseadas em regras. Dessa forma, funciona melhor quando o sistema é previsível. A observabilidade de dados realiza queries de criação de perfis, detecção de anomalias e alertas (PPA) em três dimensões principais:

  • Escopo – A amplitude com que o sistema de observabilidade pode entender os problemas de dados em todo o ecossistema de dados.
  • Profundidade – Quão profundamente o sistema analisa dados, metadados e o comportamento do pipeline.
  • Automação – A quantidade de trabalho que o sistema executa automaticamente com a criação manual de regras ou intervenção.

A observabilidade de dados é proativa e vai além de testes ou regras de qualidade de dados, com perfilamento estatístico e detecção baseada em ML para fornecer automaticamente percepções e alertas granulares em tempo real antes que os usuários finais notem os problemas.

As ferramentas de observabilidade, monitoramento e qualidade de dados atendem a propósitos diferentes, mas trabalham juntas de forma holística para garantir dados confiáveis, seguros e de alta qualidade. O monitoramento é necessário para detectar problemas conhecidos. As ferramentas de qualidade de dados validam o conteúdo dos dados usando regras para garantir que eles estejam corretos, completos, precisos e válidos. A observabilidade de dados pode detectar problemas desconhecidos e diagnosticar as causas-raiz. Portanto, o monitoramento detecta os problemas, a observabilidade fornece visibilidade mais aprofundada e a qualidade dos dados garante a correção em relação às regras de negócio.

Componentes principais de um sistema de observabilidade de dados

Um sistema de observabilidade de dados combina monitoramento de metadados, análise estatística, detecção de anomalias, linhagem, alertas, análise de causa raiz e integração de fluxo de trabalho para garantir visibilidade contínua da saúde e da confiabilidade dos dados em todo o ecossistema. Os componentes principais do sistema incluem:

  • Coleta de metadados para coletar sinais de todos os sistemas de dados.
  • Criação de perfis e linhas de base para entender o comportamento normal dos dados.
  • Detecção de anomalias para identificar problemas inesperados automaticamente.
  • Monitoramento de alterações de esquema para detectar drift antes que causem falhas nos pipelines.
  • Acompanhamento de Linhagem para entender as dependências e diagnosticar problemas.
  • Alertas e notificações para apresentar os problemas às pessoas certas.
  • Análise de causa raiz para determinar por que os problemas ocorreram.
  • Análise de impacto para identificar os ativos downstream afetados.
  • Gerenciamento de incidentes para dar suporte à resposta, aos SLAs e aos fluxos de trabalho.
  • Qualidade dos dados para combinar regras com verificações estatísticas.
  • Dashboards e visualização para monitorar a integridade geral dos dados.
  • Integração da governança para aprimorar a responsabilidade, a documentação e o compliance.
  • Remediação automatizada para reduzir o tempo de inatividade com autorrecuperação.

Problemas de Dados Comuns que a Observabilidade de Dados Ajuda a Identificar

A observabilidade de dados ajuda a identificar uma ampla gama de problemas de dados que podem passar despercebidos no monitoramento tradicional. Pode detectar problemas esperados e inesperados em pipelines, sistemas de armazenamento, transformações e analítica downstream.

Ele pode descobrir problemas de atualização de dados quando os dados não chegam quando deveriam devido a erros de pipeline, jobs com falha e fluxos de trabalho atrasados.

A observabilidade detecta problemas de volume, como dados ausentes ou incompletos, uma queda repentina na contagem de linhas, partições ou arquivos ausentes e linhas duplicadas.

Schema drift e alterações inesperadas de campo são uma das principais causas de falha de pipeline, impactando os jobs downstream.

Outliers, mudanças na distribuição e registros imprecisos que criam anomalias estatísticas podem ocorrer quando o conteúdo dos dados se desvia dos padrões históricos.

A Observabilidade pode detectar fontes upstream não confiáveis ou inconsistentes e falhas operacionais de pipeline que degradam a confiabilidade de todo o pipeline de dados.

Casos de Uso do Mundo Real para a Observabilidade de Dados

As organizações usam a observabilidade de dados para evitar o tempo de inatividade dos dados, melhorar a confiança na analítica, proteger pipelines críticos e reduzir o custo e o esforço da solução de problemas. A seguir estão alguns exemplos do mundo real:

  • Garantindo analítica e relatórios confiáveis – Quando as equipes criam seus próprios dashboards, novos dashboards podem quebrar dependências, repeated queries podem deixar os pipelines mais lentos e os usuários podem extrair dados desatualizados ou incorretos. A observabilidade fornece visibilidade downstream, monitora a saúde de datasets compartilhados e pode garantir a confiabilidade de fontes de dados de terceiros. Ela pode detectar imediatamente problemas de atualização de dados e falhas em jobs upstream e enviar alertas antes que os usuários percebam.
  • Detecção e prevenção de incidentes de qualidade de dados – Quando dashboards e relatórios mostram anomalias repentinamente, a observabilidade de dados pode ajudar a identificar drift, picos de nulos, problemas de integridade e falhas upstream. Em alguns casos, os pipelines podem ser executados com sucesso, mas produzem uma saída incorreta. A observabilidade pode monitorar o volume de linhas, rastrear joins e relacionamentos e enviar alertas sobre anomalias de distribuição.
  • Melhorando a confiança em modelos de ML e sistemas de IA – Os modelos de ML e IA são extremamente sensíveis a data drift e a recursos ausentes, o que leva a decisões ruins. A Observabilidade pode monitorar a saúde dos recursos, detectar drift, identificar falhas upstream causadas por dados ausentes ou atrasados e categorias inesperadas.
  • Apoio aos esforços de governança de dados – A confiança nos dados é essencial para setores regulamentados como saúde e finanças. A observabilidade melhora a confiança ao fazer o acompanhamento de SLAs de dados, fornecer linhagem, mostrar o histórico de integridade dos dados, documentar a propriedade e apresentar anomalias antes que os usuários finais possam vê-las.
  • Redução do tempo de inatividade e dos custos operacionais – A observabilidade de dados pode desempenhar um papel fundamental na detecção precoce de problemas, na redução do tempo de resolução e na prevenção da propagação de dados incorretos, tudo isso podendo contribuir para o tempo de inatividade em toda a organização e o aumento dos custos.

Ferramentas e Plataformas de Observabilidade de Dados

As ferramentas e plataformas de observabilidade de dados podem ser agrupadas em várias categorias com base em seu foco, capacidades e lugar no stack de dados. Além disso, existem opções comerciais, de código aberto e nativas cloud que diferem em capacidades, custo, implantação, escalabilidade, facilidade de uso e casos de uso ideais.

  • Plataformas de observabilidade de dados de ponta a ponta fornecem observabilidade completa do sistema. As capacidades comuns entre as principais plataformas incluem monitoramento de atualização, linhagem automatizada, métricas, dashboards, monitoramento de metadados, linhagem automatizada upstream e downstream, alertas de incidentes, percepções de confiabilidade da pilha e análise de causa-raiz em todo o ciclo de vida dos dados. Elas são criadas por fornecedores com recursos completos, suporte e automação; sendo as plataformas de observabilidade mais abrangentes, cobrindo todos os cinco pilares da observabilidade. Como Software como Serviço (SaaS) totalmente gerenciado, não há necessidade de infraestrutura, o que leva a uma implantação e integração mais rápidas.
  • Ferramentas de qualidade de dados + observabilidade combinam a qualidade de dados tradicional baseada em regras com capacidades modernas de observabilidade, fornecendo testes de dados personalizados, detecção automatizada de anomalias, criação de perfil e validação, monitoramento baseado em metadados e orquestração de testes. Essas plataformas são usadas quando as organizações querem uma combinação de regras de qualidade manuais juntamente com a observabilidade automatizada.
  • As ferramentas de observabilidade da orquestração de pipeline focam no monitoramento da camada de compute, no desempenho do pipeline e na confiabilidade do job. Os principais recursos incluem detecção de falhas no nível da tarefa, monitoramento de latência, análise de novas tentativas, acompanhamento de dependências e integração com ferramentas de orquestração. Essas ferramentas são eficientes para a integridade do pipeline, mas podem não ter percepções aprofundadas no nível dos dados.
  • Ferramentas focadas em linhagem mapeiam o fluxo de dados de ponta a ponta, permitindo a análise de causa-raiz e de impacto. Elas podem se destacar em linhagem, muitas vezes incorporando sinais de observabilidade no fluxo.
  • As estruturas de observabilidade de código aberto fornecem flexibilidade para auto-hospedagem e personalização, e permitem extensibilidade e integração em pilhas de dados personalizadas. Essas estruturas orientadas pela comunidade são gratuitas, mas precisam de automanutenção e geralmente exigem integração, configuração manual e criação de regras, o que demanda recursos de engenharia e maior sobrecarga operacional.
  • Ferramentas de monitoramento nativas cloud com extensões de observabilidade de dados são às vezes usadas quando as equipes desejam observabilidade tanto na infraestrutura quanto nos dados. Não há implantação e elas têm a pegada operacional mais simples porque as capacidades estão incluídas na plataforma de dados, normalmente focadas na observabilidade específica do warehouse e do data lake. Normalmente, o custo é baseado no uso e suportado pelo provedor de cloud, sendo melhor para equipes com orçamentos menores e para aquelas que já compraram um warehouse.

Implementando a Observabilidade de Dados

Implementar os processos, as ferramentas, a arquitetura e a cultura necessários para a observabilidade de dados envolve estratégia, práticas recomendadas e seleção de ferramentas. A seguir estão alguns passos fundamentais para organizações que adotam práticas de observabilidade:

  • Alinhe seus objetivos para implementar a observabilidade e o que priorizar primeiro.
  • Identifique ativos de dados críticos, começando com tabelas e pipelines de alto impacto/alto risco.
  • Escolha seu modelo (de código aberto, comercial ou nativo cloud).
  • Integre fontes de metadados (todos os sinais, incluindo pipeline, warehouses e lakes, orquestração, frameworks de transformações, ferramentas de BI e sistemas de transmissão)
  • Implemente o monitoramento contínuo nos cinco pilares da observabilidade (atualidade, volume, esquema, distribuição, linhagem).
  • Implante a detecção de anomalia usando ML e modelos estatísticos.
  • Crie uma cultura de DataOps em torno da observabilidade para práticas sustentáveis.
  • As principais métricas e indicadores de integridade normalmente monitorados incluem métricas para os cinco pilares, além de métricas de integridade de dados, métricas operacionais de pipeline, métricas de qualidade de dados, métricas de custo e uso de recursos e a integridade de features e modelos de ML.

Desafios e considerações

Os principais desafios e considerações técnicas, culturais e operacionais que as equipes devem entender antes e durante a adoção da observabilidade de dados incluem:

  • A complexidade e a proliferação de ecossistemas de dados em grande escala dificultam o alcance da observabilidade total. Diferentes stacks de dados geralmente exigem diferentes abordagens de integração. Concentre-se primeiro em pipelines de alto impacto. Invista em linhagem de dados para entender as dependências e estabelecer a propriedade entre domínios.
  • Gerenciar dependências e os impactos upstream/downstream pode ser um desafio. Até mesmo pequenas alterações em uma parte do pipeline podem criar falhas em cascata em dashboards, modelos de ML e sistemas operacionais. Quando as organizações não têm um mapa completo da linhagem de dados e propriedade dos dados, as dependências geralmente são conhecimento tribal.
  • O custo de monitoramento de grandes volumes de dados pode aumentar ao monitorar grandes warehouses e lakes. Os metadados podem aumentar, elevando os custos de armazenamento para metadados e logs. E cada tabela adicional adiciona um custo de monitoramento incremental. Classifique os ativos por criticidade e aplique um monitoramento mais aprofundado em ativos essenciais para os negócios.
  • Equilibrar a granularidade com a sobrecarga operacional é essencial para reduzir custos. Nem todos os dados precisam de observabilidade profunda. O monitoramento de alta frequência de ativos de baixo valor pode levar a altos custos de compute. Uma única plataforma com vários recursos geralmente custa menos do que 3 a 4 ferramentas menores com recursos redundantes.

Resumo

Os dados se tornaram um ativo de missão crítica, e os sistemas de dados estão cada vez mais complexos, distribuídos e em constante mudança. As organizações não podem mais se dar ao luxo de ter pipelines não confiáveis, dashboards defeituosos, métricas imprecisas ou modelos de ML com desvio. A observabilidade de dados––a prática e os processos envolvidos no monitoramento contínuo da integridade, qualidade, confiabilidade e desempenho dos dados em todos os sistemas de dados, desde os pipelines de ingestão até as camadas de armazenamento e as análises posteriores—é essencial para que as organizações possam detectar, diagnosticar e prevenir problemas de dados em todo o ecossistema de dados antes que causem impacto nos negócios.

A observabilidade de dados pode ajudar a detectar problemas precocemente para melhorar a analítica downstream, as operações e a tomada de decisão e evitar problemas de confiança nos dados antes que cheguem aos usuários ou consumidores. A observabilidade ajuda não apenas a garantir que os dados permaneçam confiáveis, mas também pode impulsionar a receita, melhorar a experiência do cliente e acelerar a inovação.

    Voltar ao glossário