Aplicativos nativos de IA precisam que dados operacionais e análises convivam — veja como as equipes estão removendo essa barreira.
por Amey Banarse e Madelyn Mullen
Em organizações de tecnologia líderes que criam aplicativos nativos de IA, a principal restrição mudou da capacidade do modelo para a arquitetura de dados subjacente e, especificamente, para os pipelines de dados. Os requisitos dos sistemas de IA para acessar contexto em tempo real e com estado para agentes e baixo custo marginal para desenvolvimento rápido e experimental expuseram a falha crítica nas arquiteturas de dados tradicionais e separadas.
Cargas de trabalho operacionais normalmente são executadas em bancos de dados transacionais na nuvem (por exemplo, motores Postgres/MySQL gerenciados), enquanto análise, pipelines de ML e engenharia de recursos vivem no lakehouse. A sincronização entre essas camadas depende de uma malha complexa de pipelines de CDC, jobs de ETL/ELT e frameworks de ETL reverso. Isso resulta em ineficiências sistêmicas:
Chamamos isso de imposto do construtor: uma ineficiência estrutural decorrente de pilhas operacionais e analíticas desacopladas. Para as pessoas dentro das empresas de tecnologia que constroem as plataformas, produtos SaaS e ferramentas de desenvolvedor em que todos os outros dependem, esse imposto é especialmente prejudicial. Cada novo recurso de IA gera outro banco de dados, outro pipeline, mais um trimestre de atraso.
Para quebrar esse padrão, as principais empresas de tecnologia estão redesenhando a arquitetura, indo além da adoção de apenas mais uma ferramenta especializada. Nós as vemos executando aplicativos e IA diretamente na mesma base governada de suas análises.
Essa base é o Lakebase: um motor Postgres serverless totalmente gerenciado e nativamente integrado à Databricks Platform.
Isso estabelece uma Base de Aplicativos Interoperável: uma camada única e governada onde aplicativos, IA e análises compartilham o mesmo armazenamento operacional.
Amey Banarse apresentou “From Transactions to Agents: PostgreSQL in Modern AI Applications” na PostgresConf 2026 [Slides]. Amey cobre uma demonstração ao vivo de um aplicativo de sinistros de healthtech construído inteiramente no Lakebase + o AI DevKit, mostrando como a inteligência do lakehouse, insights operacionais e um loop de aprendizado contínuo são executados em uma única base Databricks.
As organizações geralmente entram nessa arquitetura por meio de três vetores principais:
Os resultados abaixo vêm de empresas de tecnologia que migraram para uma arquitetura Lakebase:

YipitData escalou seu pipeline de agentes de IA para processar 1 milhão de registros por hora, alcançando 92–95% de precisão de marcação e 20x de cobertura da empresa. Ao usar o Lakebase como o sistema relacional de registro dentro do Unity Catalog, seus agentes operam com um estado durável e governado — sem armazenamentos externos frágeis, sem atraso de sincronização.
Quantum Capital Group estava gerenciando mais de 1,5 bilhão de registros em seis fontes de dados fragmentadas. Após a consolidação no Lakebase, eles eliminaram mais de 100 tabelas redundantes, reduziram o tempo de engenharia de dados em 50% e triplicaram a velocidade de relatórios — as equipes agora trabalham a partir de um único conjunto de dados confiável em vez de lutar contra a proliferação de versões.
Ensemble Health Partners unificou mais de 15 sistemas fragmentados do SQL Server. Com o Lakebase como a camada transacional, eles implementaram fluxos de trabalho de ciclo de receita impulsionados por IA que melhoraram a eficiência operacional em 20% e ajudaram os clientes a capturar de 3 a 5% mais receita líquida ano a ano.
Replit, cuja plataforma atende milhões de desenvolvedores na criação e implantação de software, usa o Lakebase + o Databricks AI DevKit para ajudar os clientes a lançar IA de geração de código em produção em 3 semanas com 10x de velocidade de desenvolvimento, eliminando a lacuna entre os sistemas operacionais e analíticos desde o primeiro dia.
IntentHQ, uma plataforma de inteligência do consumidor, centralizou sua camada de serviço no Lakebase para potencializar a personalização em tempo real em escala — fornecendo aos modelos de IA um armazenamento operacional de baixa latência que permanece sincronizado com seus dados do lakehouse sem pipelines personalizados.
Apesar dos diferentes casos de uso — de agentes de IA e motores de personalização a fluxos de trabalho de saúde e plataformas de desenvolvedor — essas organizações não estão tendo sucesso por meio de otimizações isoladas. Elas estão convergindo para um modelo arquitetônico fundamentalmente diferente.
Em sua essência, esse modelo arquitetônico elimina a separação tradicional entre sistemas transacionais, plataformas analíticas e pipelines de IA, substituindo-a por uma base de dados compartilhada e interoperável.
Esse padrão inclui consistentemente três camadas rigidamente integradas:
Camada de inteligência do Lakehouse
Uma base governada e escalável onde operam dados em lote e de streaming, engenharia de recursos e cargas de trabalho de IA/ML. Essa camada fornece o sistema de insights, permitindo processamento em larga escala, treinamento de modelos e análise de dados unificados.
Camada de dados operacionais
Uma interface transacional de baixa latência (Lakebase) que serve como o sistema de execução para aplicativos e agentes. Essa camada permite leituras/escritas em tempo real, gerenciamento de estado e lógica de aplicativo diretamente em dados governados — sem sobrecarga de replicação ou sincronização.
Loop de aprendizado contínuo
Um sistema de feedback fechado onde interações de aplicativos, saídas de agentes e sinais do usuário são capturados e reintegrados aos pipelines de modelos. Isso estabelece um sistema de melhoria contínua, permitindo que as capacidades de IA evoluam com base no uso no mundo real.
Quando essas três camadas compartilham uma base, os sistemas de IA transitam de cargas de trabalho isoladas para sistemas de produção em constante aprimoramento.
O imposto do construtor não é inevitável. É uma consequência de construir IA sobre uma infraestrutura projetada para uma era diferente — quando os bancos de dados eram monolíticos, os aplicativos não tinham estado e a inteligência era um projeto separado.
Lakebase muda a matemática! Os aplicativos rodam onde os dados residem. Os agentes têm o contexto de que precisam. E o tempo de engenharia que sua equipe gastou em pipelines volta para o desenvolvimento.
Assista à sessão de Amey Banarse no PostgresConf 2026, “De Transações a Agentes: PostgreSQL em Aplicações Modernas de IA” [Slides] para ver um aplicativo completo nativo de IA construído sobre Lakebase em ação.
Databricks Lakebase é Postgres serverless construído para agentes e aplicativos. Saiba mais em databricks.com/product/lakebase.
(Esta publicação no blog foi traduzida utilizando ferramentas baseadas em inteligência artificial) Publicação original
Assine nosso blog e receba os posts mais recentes diretamente na sua caixa de entrada.