Publicado: 17 de abril de 2026
por Naeem Rehman e Jennifer Miller
Sob o tema “Faça Progresso”, o CBA Live 2026 reuniu centenas de líderes de varejo bancário focados em superar a complexidade e avançar a inovação.
Mas em todas as sessões – risco, conformidade, cobranças e crescimento de depósitos – o mesmo tema subjacente continuou a surgir:
A inovação em IA não escala sem uma base sólida de dados e governança.
Por baixo das demonstrações e roteiros, um padrão comum emergiu. Os bancos que estão progredindo de verdade não são aqueles com a IA mais chamativa.
São aqueles com as bases de dados mais limpas, mais governadas e em tempo real.
A palestra de abertura da presidente do CBA, Lindsay Johnson, descreveu uma experiência de consumidor no futuro próximo que parecia simples e inevitável.
Um consumidor acorda no dia de pagamento. Quando ela pega o celular, tudo já está feito: contas pagas, economias alocadas, assinaturas renovadas, até mesmo uma transferência enviada para o exterior.
Sem aplicativos. Sem logins. Sem decisões a tomar.
Um agente de IA cuidou de tudo.
Esse é o futuro para o qual os bancos estão construindo.
Mas aqui está a pergunta desconfortável que não foi feita no palco:
O que precisaria estar em vigor dentro de um banco para que essa experiência realmente funcionasse?
Porque esta não é apenas uma experiência digital melhor. É um modelo operacional fundamentalmente diferente. Um onde agentes externos interagem com seus sistemas em tempo real, entre produtos, com contexto completo e tolerância zero à inconsistência ou atraso.
E para a maioria das instituições, é aí que a lacuna aparece.
Não na ambição ou nos modelos que estão construindo, mas na base de dados necessária para torná-la real.
Nas várias sessões, os desafios específicos de dados variavam por função, mas o tema subjacente era consistente.
Painelistas de várias instituições falaram sobre como a deriva de modelo – a degradação silenciosa de um modelo de IA à medida que a população do mundo real em que foi treinado muda – é um dos riscos mais subestimados na IA bancária. Um modelo de pontuação de crédito treinado em um pool de candidatos com FICO médio de 750 pode falhar silenciosamente quando a mistura de candidatos muda para 650. Você precisa de gatilhos automatizados monitorando isso continuamente. A maioria dos bancos não os possui.
A disciplina de qualidade de dados exigida para a governança de IA também é mais exigente do que muitas equipes de conformidade anteciparam. A auditoria interna agora precisa testar independentemente a linhagem de dados e não apenas aceitar as atestações da unidade de negócios. O regulador não aceitará "o parceiro fintech é o dono do modelo" como resposta.
Várias sessões fizeram a mesma observação de que os bancos têm dados mais ricos sobre seus clientes do que quase qualquer outra instituição – mais do que um médico, mais do que um consultor financeiro. Eles sabem sobre assinaturas de academia, pagamentos recorrentes de medicamentos, volatilidade de gastos e padrões de depósito do empregador. Mas a maior parte desse insight está fragmentada em sistemas que não se comunicam em tempo real.
O atrito que isso cria é real. Um painelista descreveu o objetivo de conhecer um cliente o suficiente para detectar que ele ainda não havia declarado seus impostos – e apresentar proativamente essa informação no momento exato. Esse tipo de personalização requer dados limpos, unificados e acessíveis em tempo real. Não é um recurso de produto que você pode adicionar posteriormente.
Uma sessão sobre IA em cobranças descreveu o que é possível quando a base de dados está correta. Prever, com 85% de precisão, quantos dias uma conta recém-inadimplente levará para ser regularizada – a partir do Dia 1 da inadimplência. Esse tipo de sinal precoce muda completamente como você aloca recursos de cobrança.
Chegar lá requer não apenas dados internos da conta, mas a capacidade de juntar sinais de engajamento digital (o cliente visitou o site sem pagar?), dados de migração de bureau de crédito, comportamento de depósito e padrões históricos de resolução – tudo de forma governada e auditável. As instituições que fazem isso bem construíram a infraestrutura de dados primeiro. A capacidade de IA veio depois.
A sessão do Bank of America sobre Erica foi uma aula magna sobre o que é IA de produção real em escala. Erica lidou com mais de 3,2 bilhões de interações de clientes desde o lançamento em 2018 e fez milhares de alterações ao longo do caminho. A lição de oito anos de IA em produção foi clara: esta não é uma tecnologia de "configure e esqueça". Requer ajuste contínuo de dados, monitoramento contínuo e uma equipe cujo único trabalho é ler os casos de borda e atualizar o modelo.
Outra sessão reforçou isso de um ângulo diferente – os agentes de contact center na maioria dos bancos alternam entre 10 a 15 aplicativos para responder a uma única pergunta do cliente. Os agentes de IA que resolverão esse problema são aqueles fundamentados nos próprios dados do banco. Não em LLMs genéricos, mas em ferramentas treinadas nas políticas, produtos e relacionamentos com clientes do banco.
Uma das sessões mais memoráveis foi uma avaliação franca do cenário de fornecedores de IA. Um palestrante que liderou a estratégia de IA em uma grande instituição compartilhou uma descoberta de uma auditoria de fornecedores em larga escala: de vários milhares de fornecedores que atualmente afirmam ter capacidades de IA, apenas cerca de 5% possuem IA genuína no produto. O restante está renomeando automação robótica de processos ou lógica de automação padrão como IA.
A orientação prática para compradores de tecnologia bancária é ser específico. Pergunte como o fornecedor construiu sua capacidade de IA. Pergunte qual orquestração de LLM eles estão usando. Pergunte se eles têm cobertura completa de API e MCP. Pergunte como será o negócio deles em três anos, à medida que a automação de fluxo de trabalho se torna comoditizada. Se eles não puderem responder a essas perguntas especificamente, você terá sua resposta.
Os temas que surgiram do CBA Live não eram novos. Eles refletem de perto os mesmos desafios que vemos em conversas contínuas com clientes bancários – ambientes de dados fragmentados, governança limitada e iniciativas de IA que lutam para ir além das fases piloto para a produção.
Isso valida um padrão que continua a surgir em todas as instituições com as quais interagimos diariamente – o fator limitante não é a capacidade de IA, mas a base de dados e governança subjacente necessária para suportá-la.
Vamos conectar os temas que ouvimos com a forma como o Databricks os aborda:
Os bancos lutam para escalar a IA porque os dados de clientes, risco e produtos são fragmentados e inconsistentes. O Lakehouse do Databricks centraliza dados em lote e de streaming, enquanto o Unity Catalog adiciona uma camada de governança (permissões, linhagem e classificação) para que cada equipe trabalhe a partir da mesma visão confiável.
Com o Lakeflow, os bancos podem ingerir e transformar dados de forma confiável em camadas curadas, em vez de depender de pipelines frágeis e ponto a ponto. O Lakebase, então, estende essa base para cargas de trabalho transacionais, trazendo um motor Postgres totalmente gerenciado para a mesma plataforma governada, para que aplicativos operacionais e agentes de IA possam compartilhar dados com análises sem criar um estado OLTP separado e opaco.
Sob orientações como a SR 11-7, os reguladores agora esperam gerenciamento de risco de modelo em ciclo de vida completo. Não apenas validação inicial, mas monitoramento contínuo, detecção de deriva e revalidação periódica para modelos materiais.
No Databricks, o MLflow e o Model Registry rastreiam experimentos e versões aprovadas, enquanto o Model Monitoring e o Delta Lake capturam previsões, entradas e resultados ao longo do tempo. Isso torna a validação no estilo SR 11-7 e as verificações de desempenho contínuas uma parte padrão da plataforma, em vez de um conjunto de scripts e planilhas. Para modelos de alto impacto, como os que impulsionam previsões de inadimplência ou segmentação de fraudes, essas capacidades estão rapidamente se tornando requisitos básicos em vez de recursos "avançados".
Para engajar clientes “no momento”, os bancos precisam de recursos novos e de baixa latência, não apenas de agregações noturnas. O Online Feature Store da Databricks serve features pré-calculadas (propensão, flags de risco, segmentos) em milissegundos, enquanto o Lakebase fornece o contexto operacional mais recente, como transações recentes, dentro do mesmo limite de governança.
Um fluxo típico seria um evento (passagem de cartão, login no app, chamada) que aciona um serviço de decisão que lê features do Online Feature Store, une o contexto do Lakebase e retorna uma próxima melhor ação, de forma consistente, entre os canais. Para a equipe de linha de frente, o Genie expõe os mesmos dados governados e métricas por meio de linguagem natural, para que gerentes e agentes possam fazer perguntas como “Qual é a tendência de depósito de 90 dias deste cliente?” sem tickets ou extrações ad hoc, enquanto o Unity Catalog impõe políticas e linhagem por baixo.
IA agentiva em bancos significa agentes que podem executar ações restritas, como avançar um fluxo de trabalho de cobrança, iniciar etapas de KYC ou orquestrar chamadas de serviço sob rigorosas diretrizes e supervisão.
Na Databricks, os Agent Bricks orquestram esses agentes e chamadas de ferramentas. Databricks Apps hospedam as UIs e fluxos de trabalho seguros aos quais eles se conectam. Lakehouse + Unity Catalog controla quais dados os agentes podem ver, com linhagem completa e trilhas de auditoria. O Online Feature Store fornece sinais comportamentais e de risco em tempo real, e o Lakebase serve como seu armazenamento de estado operacional para leituras/escritas de baixa latência, tudo dentro do mesmo perímetro de segurança e governança.
Isso permite que os bancos escalem fluxos de trabalho agentivos em uma plataforma que registra cada ação e permanece explicável e auditável.
Os reguladores se importam menos com o quão “avançado” um modelo é e mais se o banco pode explicar, governar e comprovar seu uso.
A Databricks aborda isso tornando a governança e a linhagem de primeira classe.
O Unity Catalog unifica permissões, linhagem e histórico de auditoria em artefatos de dados, features e modelos. Delta Lake e Databricks SQL fornecem pipelines versionados e reproduzíveis, e o MLflow Model Registry + Model Monitoring captura versões de modelos, aprovações e desempenho/drift ao longo do tempo.
Isso dá aos bancos um registro completo e reconstrutível de como os dados fluem, como os modelos foram construídos e validados, e como eles influenciaram as decisões, transformando explicabilidade e conformidade em um facilitador para implantação de IA mais rápida, segura e responsável.
Os bancos não têm um problema de IA; eles têm um problema de plataforma de dados.
O padrão é claro: soluções pontuais mostram promessa inicial, mas sem uma base de dados forte e governada, elas estagnam. As instituições que veem resultados reais são aquelas que investiram na plataforma primeiro, tornando cada caso de uso de IA mais rápido de implantar, mais fácil de confiar e defensável para os reguladores. A plataforma não é uma decisão posterior; é o ponto de partida
Se as respostas não estiverem claras, o próximo investimento não é outro caso de uso - é a fundação.
Aviso: Participamos do CBA Live 2026 em San Diego. As observações neste post são nossas, baseadas nas sessões assistidas e nas conversas realizadas durante a conferência.
(Esta publicação no blog foi traduzida utilizando ferramentas baseadas em inteligência artificial) Publicação original
