Ir para o conteúdo principal

O que é qualidade de dados?

Grau em que os dados atendem aos requisitos de precisão, integridade, consistência, atualidade e singularidade, garantindo análises confiáveis ​​por meio da governança.

4 Personas Agnostic 5

Summary

  • As dimensões incluem precisão (correção), integridade (ausência de valores ausentes), consistência (uniformidade entre as fontes), atualidade (recência e disponibilidade), validade (conformidade com as regras) e unicidade (ausência de duplicatas).
  • A avaliação emprega ferramentas de perfil que analisam distribuições e padrões, validação baseada em regras que verificam as restrições de negócios, detecção de anomalias estatísticas, indicadores de qualidade de dados e feedback do usuário que captura métricas de adequação ao propósito.
  • As estratégias de melhoria abrangem a limpeza de dados (corrigindo erros), o enriquecimento (adicionando informações ausentes), a padronização (impondo formatos), a desduplicação (mesclando registros) e a análise da causa raiz (abordando problemas sistêmicos de qualidade na origem).

Mais do que nunca, as organizações dependem de uma variedade de datasets complexos para orientar suas decisões. Para que as empresas possam tomar decisões estratégicas e práticas da melhor forma possível, é fundamental que esses dados sejam confiáveis, precisos e relevantes. Isso se torna ainda mais importante à medida que as industries passam a adotar recursos de IA. IA e analítica dependem de dados limpos e de qualidade para fazer previsões e tomar decisões corretas.

Dados poucos não confiáveis tornam os algoritmos de IA menos fidedignos, e também podem impactar negativamente a sua organização. Questões de qualidade de dados — como dados incompletos ou ausentes — podem resultar em conclusões imprecisas e perdas financeiras significativas. Segundo a Gartner, as organizações perdem em média cerca de US$ 13 milhões por ano devido à baixa qualidade de seus dados.

Os dados precisam ter integridade e ser precisos, completos e consistentes em todos os momentos do seu ciclo de vida. A integridade de dados também é um processo contínuo para garantir que novos dados não comprometam a qualidade geral de um dataset, além de proteger dados atuais contra a perda ou corrupção.

Os benefícios de dados de alta qualidade

Manter uma boa qualidade de dados é importante por inúmeros motivos, incluindo: 

Eficiência operacional: ter em mãos dados de alta qualidade permite reduzir o tempo e os recursos dedicados à correção de erros, ao tratamento de discrepâncias e à identificação de redundâncias. Dados de boa qualidade também reduzem os custos, ajudando os funcionários a focarem em tarefas estratégicas de alto nível, em vez de terem que lidar com problemas relacionados aos dados. 

Tomada de decisão informada: uma boa qualidade de dados dá aos principais interessados a confiança de que suas decisões são baseadas em informações precisas. Dados precisos, completos e oportunos também são essenciais para a analítica e a IA, pois ambas dependem de dados de qualidade para gerar resultados significativos.

Governança de dados aprimorada: a qualidade dos dados é essencial para se ter uma governança de dados eficiente, garantindo que os datasets sejam geridos de forma consistente e cumpram os requisitos regulatórios.

UM LÍDER 5X

Gartner®: Databricks, líder em banco de dados em nuvem

Principais elementos da qualidade dos dados

A qualidade dos dados pode ser dividida em seis dimensões principais

  1. Consistência: os dados precisam ser consistentes nos diferentes bancos de dados e datasets. Isso inclui dados de diversas áreas de interesse, transações e períodos de tempo. A curadoria de dados que elimina duplicações e conflitos é crucial à medida que os datasets aumentam em escala e crescem 
  2. Precisão: os dados devem refletir a conjuntura do mundo real que eles representam. Sejam para corresponder a medidas físicas ou a um ponto de referência, dados de qualidade não podem conter erros e devem representar sua origem com precisão. 
  3. Validade: os dados também devem estar em conformidade com os formatos, normas e regras definidos. Isso normalmente significa que os dados estão dentro do intervalo ou padrão projetado, incluindo quaisquer metadados relevantes. 
  4. Completude: um dataset é tão bom quanto sua completude. Pontos de dados ausentes ou indisponíveis podem comprometer a qualidade geral dos dados, resultando em entendimentos insuficientes ou incompletos.  
  5. Atualidade: os dados precisam estar atualizados e disponíveis quando forem necessários. Qualquer atraso ou defasagem na geração de relatórios de dados pode resultar em imprecisões significativas. Os sistemas precisam capturar qualquer informação nova, processar essas informações e armazená-las com precisão para que possam ser encontradas posteriormente.  
  6. Singularidade: quando os dados são agregados a partir de uma variedade de fontes, é fundamental que os processos de qualidade dos dados levem em conta quaisquer duplicações ou redundâncias. Datasets que carecem de singularidade podem acabar gerando percepções e estratégias que induzem ao erro. 

É importante notar que qualquer dado que entre em uma plataforma de analítica de dados provavelmente não atenderá a esses requisitos. A qualidade dos dados é obtida por meio da limpeza e transformação deles ao longo do tempo. 
 
Outra forma de garantir a qualidade dos dados é utilizar o modelo dos “sete Cs da qualidade dos dados”, que descreve como preparar os dados para compartilhamento, processamento e uso. 

  • Coletar: a coleta de dados é considerada a fase inicial. É o processo de captura, formatação e armazenamento de dados em um repositório adequado.  
  • Caracterizar: após a coleta dos dados, a segunda etapa é caracterizar metadados adicionais, como o horário de criação dos dados, o método de coleta e até mesmo a localização ou as configurações específicas de sensores. 
  • Limpeza: o próximo passo é limpar os dados, corrigindo quaisquer problemas ou corrupções encontrados neles. ETL (extrair, transformar, carregar) é um processo comum, mas outros processos podem ser usados para resolver problemas adicionais, como duplicação, erros de digitação ou dados desnecessários. 
  • Contextualizar: nem todos os dados são relevantes para o seu negócio ou iniciativa. A contextualização dos dados determina quais metadados adicionais podem ser necessários. 
  • Categorizar: identifica mais profundamente os fatores-chave nos datasets e os extrai com base no domínio do problema. 
  • Correlacionar: esta etapa conecta dados e conceitos díspares encontrados em diversos repositórios de dados. Por exemplo, dois datasets podem se referir aos mesmos pontos de dados: o número de telefone de um cliente pode ser classificado como dois tipos diferentes conforme seu respectivo banco de dados. A correlação ajuda a resolver esses conflitos conectando os pontos de dados. 
  • Catalogar: a etapa final é garantir que os dados e metadados sejam armazenados, preservados e acessíveis de forma segura nas plataformas de pesquisa e análise.

Avaliação da qualidade dos dados

A qualidade dos dados deve ser avaliada com base em um modelo de normas e dimensões estabelecidas. Quatro dos principais modelos incluem: 

  • Modelo de avaliação da qualidade de dados (DQAF) 
  • Gerenciamento total da qualidade de dados (TDQM) 
  • Painel de pontuação da qualidade de dados (DQS) 
  • Tempo de inatividade dos dados 

Essas normas identificam lacunas nos dados e geram melhorias ao longo do tempo. Algumas das métricas mais comuns usadas por esses modelos incluem: 

  • Taxa de erro: a frequência de erros encontrados nos dados 
  • Taxa de completude: a porcentagem de dados que estão completos e disponíveis 
  • Taxa de consistência: o grau em que os dados são consistentes em diferentes datasets. 
  • Taxa de atualidade: quão atuais são os dados

Melhorando a qualidade dos dados

À medida que os datasets aumentam e questões cada vez mais complexas surgem, torna-se um grande desafio melhorar a qualidade dos dados. O monitoramento da qualidade dos dados deve ser realizado durante todo o ciclo de vida deles. A longo prazo, isso pode resultar em uma analítica mais precisa, decisões mais inteligentes e o aumento da receita. 

  • Qualidade dos dados durante o ETL: o processo de limpeza de datasets pode gerar uma série de erros. Verificar a qualidade dos dados durante todo o processo de ingestão, transformação e orquestração pode garantir precisão e conformidade contínuas. Embora as ferramentas de limpeza de dados possam automatizar o processo de corrigir ou remover dados imprecisos ou incompletos de um dataset, nenhuma automação é perfeita. Testes contínuos ao longo deste processo podem garantir ainda mais a precisão e qualidade em geral.
  • Qualidade e governança de dados: uma boa governança de dados é essencial para proteger os dados e garantir sua qualidade. Decida qual deve ser o padrão de sua empresa para a qualidade dos dados e determine quais partes interessadas devem ser responsáveis por diferentes partes do processo. É igualmente importante incentivar uma cultura de qualidade dos dados para assegurar que todos compreendam seu papel na preservação da integridade deles. 
  • Qualidade dos dados em testes: os testes de qualidade dos dados têm como objetivo antecipar problemas específicos e conhecidos em qualquer dataset, enquanto as ferramentas de perfil de dados analisam os dados para questões de qualidade e fornecem percepções sobre padrões, discrepâncias e anomalias. Isso deve ser realizado antes de qualquer implementação no mundo real para assegurar a precisão dos seus resultados.

Desafios emergentes na qualidade dos dados

Em um ambiente de negócios competitivo, as organizações precisam alavancar seus dados para se manter à frente da concorrência. As iniciativas de IA e machine learning estão cada vez mais fundamentais para que as empresas gerem percepções e inovações a partir de seus dados para se manterem competitivas. Enquanto isso, a transição para capacidades que priorizam a cloud e a crescimento da Internet das Coisas (IoT) resultaram em um volume de dados exponencialmente maior.  

A necessidade de se ter práticas abrangentes de qualidade dos dados nunca foi tão grande, entretanto, as organizações estão tendo dificuldades para construir e manter uma boa qualidade dos dados: 

  • Dados incompletos ou imprecisos: a agregação de dados de diversas fontes pode resultar em atributos ausentes, erros ou duplicações, o que pode levar a decisões imprecisas ou errôneas. 
  • Governança de dados deficiente: sem melhores práticas sólidas de gestão de dados, a qualidade dos dados pode ficar comprometida devido a funções ou responsabilidades indefinidas. 
  • Volume e velocidade dos dados: um volume crescente de dados apresenta desafios no processamento e na geração de relatórios em tempo real, o que pode atrasar as percepções. 
  • Fontes de dados complexas: os sistemas estão coletando cada vez mais dados não estruturados, como fotos e vídeos, que podem apresentar problemas até mesmo para os processos de qualidade de dados mais cuidadosamente elaborados. 
  • Práticas de monitoramento: organizações que não têm práticas rigorosas de monitoramento de dados podem comprometer a qualidade dos dados

À medida que as organizações intensificam sua abordagem orientada por dados e liderada por IA e analítica, será essencial centralizar e otimizar as práticas de qualidade dos dados. Quanto melhor a qualidade dos dados, melhor as organizações podem tomar decisões eficientes, minimizar erros e competir em um ambiente tecnologicamente avançado.

Nunca perca uma postagem da Databricks

Inscreva-se nas categorias de seu interesse e receba as últimas postagens na sua caixa de entrada