Por que o gerenciamento eficaz de risco de modelos agora depende da arquitetura da plataforma, não da conformidade procedural.
por Pavithra Rao, Jennifer Miller, Chaitanya Varanasi e Kim Hatton
Em 17 de abril de 2026, o Federal Reserve, FDIC e OCC rescindiram SR 11-7, OCC 2011-12, FIL-22-2017 e emissões relacionadas de BSA/AML, substituindo-as por um framework mais explicitamente baseado em risco e orientado por princípios para gerenciamento de risco de modelos.
Esta não é uma atualização técnica restrita. Reflete uma visão mais ampla de que os modelos são centrais para a forma como os bancos tomam decisões, e que o risco de modelo deve ser governado com a mesma seriedade que o risco de crédito ou de mercado.
Para profissionais dentro de um banco, isso se traduz em um conjunto concreto de expectativas: o inventário é classificado por materialidade, os controles são aplicados proporcionalmente e nosso ciclo de vida é defensável de ponta a ponta.
Em uma pilha tradicional, essa resposta consome de dois a três trimestres de trabalho de sprint: migração de inventário, reescrita de modelos de validação, novos pipelines de monitoramento, atualizações de documentação, onboarding de modelos de fornecedores e fluxos de trabalho paralelos para GenAI e sistemas agentivos que os supervisores agora consideram no escopo por princípio. Cada fluxo de trabalho é um projeto, um ticket de alteração e uma exposição de auditoria.
A verdadeira questão não é "como construímos a conformidade com esta orientação?" É "qual decisão de plataforma torna a próxima mudança de orientação - e a seguinte - um exercício de configuração em vez de um programa?"
A revisão de 2026 é menos uma reescrita de controles do que uma reclassificação de como os aplicamos. Cinco mudanças são importantes para os profissionais:
O fio condutor: a evidência deve ser produzida como um subproduto de como os modelos são construídos, não reconstruída posteriormente. Esse é um problema de plataforma, não um problema de política.
Consideramos a intenção regulatória como dada. Em vez de debater a orientação, focamos no modelo operacional que ela implica:
O restante deste artigo descreve uma arquitetura de referência no Databricks — projetada para atender a essas necessidades em um único substrato governado, porque na prática, esses requisitos não podem ser compostos de forma confiável a partir de uma coleção de soluções pontuais sem recriar a fragmentação que o MRM visa eliminar.
Mapeamos as expectativas revisadas de MRM em capacidades concretas do Databricks para que os bancos possam ver como operacionalizar esses princípios no Lakehouse.
A arquitetura abaixo é o que torna "um gráfico de linhagem" mais do que um slogan. Cada estágio do ciclo de vida se resolve em um objeto governado no Unity Catalog. Os mesmos primitivos servem para ML clássico e GenAI, para que a equipe de MRM opere um único framework, não dois.
Camada | O que Contém | Por que a Equipe de MRM se Importa |
Camada de Governança | Unity Catalog Controle de Acesso Baseado em Atributos (ABAC) Gráfico de linhagem de ponta a ponta Logs de auditoria | Uma única fonte de verdade para inventário, propriedade, classificação e acesso. A linhagem torna a resposta à pergunta "como essa previsão foi produzida?" em uma única consulta. |
Camada de Dados e Recursos | Delta Lake (bronze / silver / gold) Pipelines Declarativas Lakeflow Databricks Feature Store Expectativas de qualidade de dados | A qualidade dos dados é evidenciada, não apenas afirmada. As definições de recursos são versionadas, portanto, a consistência entre treino e serviço é comprovável. |
Camada de Modelo | MLflow Tracking (experimentos) UC Model Registry (versões, aliases, tags) Mosaic AI Model Serving Agent Bricks / Mosaic Agent Framework | Modelos clássicos e agentes GenAI são registrados da mesma forma, promovidos da mesma forma e carregam as mesmas tags de classificação. |
Camada de Garantia | Lakehouse Monitoring (deriva, desempenho) AI Gateway (guardrails, PII, limites de taxa) Databricks Apps (fluxo de trabalho do validador) Genie spaces (perguntas e respostas do examinador) | Monitoramento, revisão do validador e interação do examinador leem do mesmo inventário governado — sem ferramentas paralelas. |
A camada de governança não é algo adicionado no final — é onde todas as outras camadas escrevem. É por isso que uma mudança de classificação se torna uma atualização de metadados em vez de uma migração, e por que um examinador obtém uma única resposta de um único sistema.
Cada estágio do ciclo de vida produz um tipo específico de evidência que a nova orientação espera. A arquitetura Databricks transforma essa evidência em um subproduto estruturado do trabalho normal — não em uma passagem de conformidade separada no final.
Estágio do Ciclo de Vida | Expectativa de MRM | Componente Databricks | Evidência Produzida |
Origem de dados | Qualidade dos dados, proveniência, adequação ao propósito. | Unity Catalog, Delta Lake, Pipelines Declarativas Lakeflow com expectativas. | Linhagem em nível de coluna, métricas de DQ, instantâneos reproduzíveis de ponto no tempo. |
Engenharia de recursos | Definições de recursos versionadas e consistentes entre treino e serviço. | Feature Store no UC, lojas online/offline. | Histórico de versões de recursos, lista de modelos consumidores, detecção de assimetria. |
Desenvolvimento de modelo | Reprodutibilidade, suposições documentadas, justificativa da técnica. | MLflow Tracking com Git, registro automatizado de experimentos. | Histórico de execução, hiperparâmetros, métricas, commit de código, ambiente. |
Validação independente | Campeão/desafiante, análise de sensibilidade, testes de viés e justiça. | MLflow Evaluate, espaço de trabalho de validador separado, Databricks Apps para fluxo de trabalho. | Artefatos desafiantes versionados, métricas de justiça, aprovação do validador vinculada à versão do modelo. |
Implantação | Promoção controlada, capacidade de reversão, aprovação baseada em função. | Aliases do UC Model Registry, Mosaic AI Model Serving, políticas de promoção ABAC. | Histórico de promoção, identidade do aprovador, caminho de reversão atômico. |
Monitoramento | Monitoramento contínuo de desempenho e deriva, proporcional à classificação. | Lakehouse Monitoring em tabelas de inferência, métricas de justiça personalizadas. | Dashboards de drift, estouros de limite, histórico de alertas em um único sistema de registro. |
Documentação | Documentação atual de desenvolvimento, validação e alteração. | Model cards gerados automaticamente, espaços Genie para consultas em linguagem natural. | Documentação viva vinculada à versão do modelo de produção — não um PDF do último trimestre. |
Desativação | Desativação controlada com trilha de auditoria preservada. | Estados de ciclo de vida do registro, retenção do Delta Lake de artefatos de treinamento. | Registro de desativação, estado final de monitoramento, linhagem preservada. |
Qualquer capacidade individual pode ser montada a partir de ferramentas pontuais. O ponto arquitetônico é que no Databricks elas são um único grafo de linhagem. O examinador questionou "quais dados treinaram este modelo, quem o validou, como ele sofreu drift e quais decisões de produção o utilizaram?" é um único percurso — não um exercício de coleta de evidências entre equipes.
Todo modelo no registro carrega tags estruturadas: nível de materialidade, linha de negócios, versão da orientação, validador designado, data da última validação. Essas tags não são decoração — elas são lidas por políticas de acesso, limites de monitoramento e pelo dashboard de MRM em nível de portfólio.
Quando os supervisores refinam as definições de materialidade — ou quando a política interna o faz — o nível muda. Nesta arquitetura, uma mudança de nível é uma atualização de tag, aplicada em minutos, visível em todos os controles downstream. Não há replanejamento, reescrita de pipeline, nem rascunho de documentação.
Proporcionalidade é o princípio central da orientação, e historicamente o mais difícil de evidenciar. No Databricks, torna-se uma regra de acesso baseada em atributos vinculada à tag de nível.
Na prática, isso se parece com políticas simples de ABAC em objetos do Unity Catalog. Por exemplo:
• Modelos de materialidade Nível-1: a promoção para produção requer aprovação do grupo independente de validadores de MRM. Controle duplo é imposto, não encorajado.
• Modelos padrão Nível-2: líder de equipe mais validador podem promover. Supervisão mais leve, ainda auditável.
• Modelos de baixa materialidade Nível-3: o proprietário do modelo pode promover dentro de seu próprio workspace; os limites de monitoramento são mais flexíveis; os requisitos de documentação são reduzidos.
O banco não precisa de um documento de política explicando como a proporcionalidade funciona. Os logs de controle de acesso a explicam, para cada modelo, para cada promoção, pelo tempo que a janela de retenção de auditoria durar.
Na prática, isso se traduz diretamente na lógica de política ABAC em objetos do Unity Catalog:
SE model.tier = 'Tier1'
ENTÃO require_approver_role IN ('MRM_Validator', 'Model_Risk_Committee')
E require_dual_control = TRUE
A mesma tag de nível também pode impulsionar limites de monitoramento mais rigorosos e ciclos de validação mais curtos, sem código personalizado por modelo. O banco não precisa de um documento de política separado para explicar a proporcionalidade; os logs de controle de acesso e a configuração a demonstram, modelo a modelo, promoção a promoção.
Uma hierarquia de catálogo limpa é a decisão de governança mais subestimada. Um padrão viável separa o inventário e as evidências dos próprios modelos:
Catálogo de inventário — contém metadados do modelo, aprovações do validador, sobreposições de inventário, tabelas de fila de validadores.
Tabelas chave neste catálogo seguem um padrão simples:
models.inventory — uma linha por versão de modelo, com campos como nível, proprietário, version_guidance, uso pretendido e processos dependentes.
models.validation_log — uma linha por evento de validação, chaveada por model_version_id, com validator_id, validation_scope, issues_found e residual_risk_rating.
Catálogo de ML Clássico — esquemas por linha de negócios para modelos de crédito, AML, fraude, capital.
Catálogo GenAI — endpoints de LLM e agentes, registrados como modelos de primeira classe com registros de ferramentas.
Catálogo de Monitoramento — tabelas de métricas de drift, desempenho e justiça produzidas pelo Lakehouse Monitoring.
Catálogo de Evidências — execuções de challenger, artefatos de validação, model cards, arquivos de modelos desativados.
Essa separação permite que a liderança de MRM conceda acesso somente leitura a evidências e monitoramento sem expor os dados de treinamento subjacentes — um ponto problemático comum na preparação para exames.
Bancos estão executando ambos ao mesmo tempo: um modelo de PD governado por décadas de prática de MRM, e um assistente de triagem AML baseado em LLM que ninguém descobriu como governar ainda. O instinto tradicional é construir um segundo framework para o segundo tipo de modelo. Isso dobra o custo, dobra a superfície de auditoria e garante divergência.
No Databricks, clássico e GenAI compartilham o mesmo registro, os mesmos estágios de ciclo de vida e o mesmo padrão de evidência — com capacidades específicas de camada onde o tipo de modelo as exige.
Preocupação com o Ciclo de Vida | ML Clássico (crédito, AML, fraude) | GenAI e Sistemas Agentes |
Registro | Entrada no UC Model Registry com versão, proprietário, tag de nível. | Mesmo registro — endpoints de LLM e aplicativos Agent Bricks registrados como modelos de primeira classe com registros de ferramentas. |
Avaliação | MLflow Evaluate: AUC, KS, PSI, justiça entre atributos protegidos. | Avaliação de LLM do MLflow: groundedness, relevância, toxicidade, LLM-como-juiz em critérios específicos do domínio. |
Desafio Efetivo | Modelos Champion/Challenger, datasets de benchmark, backtesting. | Variantes de prompt e modelo, conjuntos de avaliação com saídas esperadas, comparação de trace de agente. |
Monitoramento | Lakehouse Monitoring: desempenho, drift, justiça em tabelas de inferência. | Rastreamento MLflow mais telemetria do AI Gateway: latência, custo, taxa de alucinação, taxa de acionamento de guardrail. |
Acesso e Guardrails | UC ABAC em features, modelos e endpoints de serving. | AI Gateway: redação de PII, limites de taxa, filtros de segurança, lista de permissão de modelos aprovados. |
Documentação | Model card gerado automaticamente com linhagem de dados e features. | Mesma estrutura de model card mais versões de prompt, grafo de agente, registro de ferramentas. |
Quando os supervisores estendem os princípios de MRM para GenAI — o que eles já estão fazendo — não criamos um segundo framework. Aplicamos o primeiro.
• Trabalham em um ambiente de notebook governado onde rastreamento, linhagem e registro de features são automáticos — não caixas de seleção de conformidade adicionadas no final.
• Iteram rapidamente em baselines e padrões agênticos com AutoML e Agent Bricks; cada iteração é registrada e reproduzível.
• Entregam mais rápido porque promoção, monitoramento e documentação estão integrados no mesmo fluxo de trabalho — não repassados para uma equipe separada.
• Acesso somente leitura aos dados de treinamento exatos, versões de features e código que produziram o modelo — sem cópias de dados, sem desatualização.
• Execuções de challenger e benchmark versionadas ao lado do champion; análises de sensibilidade reproduzíveis sob demanda.
• A aprovação é em si um artefato de primeira classe no registro, vinculado à versão do modelo — não um memorando anexado a um tópico de e-mail.
• Databricks Apps fornecem um fluxo de trabalho de revisão estruturado: fila, comentários, aprovação, escalonamento — tudo auditável.
• Um único dashboard em todo o inventário: distribuição de níveis, status de validação, saúde do monitoramento, problemas pendentes — não cinco exportações de GRC costuradas.
• Nível e propriedade aplicados por pol íticas ABAC. A proporcionalidade não é um documento de política; é uma regra de acesso com um log de auditoria.
• Modelos de terceiros e GenAI registrados da mesma forma que modelos internos. Lacunas de cobertura são visíveis antes que um examinador as encontre.
Considere uma pergunta representativa de uma revisão de supervisão: "Mostre-nos a evidência de validação, o desempenho de produção e o histórico de drift para o modelo de PD de crédito nos últimos doze meses, segmentado por linha de negócios."
Em uma pilha fragmentada, este é um exercício de coleta de evidências de duas semanas em todo o registro, data lake, ferramenta de BI e sistema GRC — cada um com seu próprio modelo de identidade e frescor de dados. Na arquitetura de referência da Databricks:
• A evidência de validação reside no catálogo de inventário, vinculada à versão do modelo.
• O desempenho de produção e o histórico de drift residem no catálogo de monitoramento, gravados continuamente pelo Lakehouse Monitoring.
• A linha de negócios é uma tag no modelo e uma dimensão de segmentação no monitor.
• O espaço Genie sobre o catálogo MRM responde à pergunta em linguagem natural, com filtros de acesso em nível de linha garantindo que o examinador veja apenas o que tem direito.
O tempo de resposta muda de semanas para horas. Mais importante ainda, a evidência é a mesma evidência que a equipe de MRM do próprio banco usa — portanto, não há discrepância entre o que o banco relata internamente e o que ele mostra ao examinador.
A orientação de 2026 exige que os bancos "desloquem para a esquerda", movendo os controles de risco para o início do ciclo de vida do modelo. Ao usar o Spark Declarative Pipelines (SDP), a governança se torna parte automatizada do fluxo de dados em vez de um obstáculo manual. Em vez de auditar modelos após serem construídos, o SDP usa expectativas de qualidade integradas para bloquear dados não conformes ou recursos instáveis antes que cheguem ao Model Registry. Isso garante que cada ativo na Arquitetura Medallion seja compatível por design, com uma trilha de auditoria completa gerada como um subproduto natural do desenvolvimento. Ao automatizar o "desafio eficaz" por meio desses pipelines, as equipes de MRM podem gastar menos tempo na coleta manual de dados e mais tempo na supervisão de alto nível.

Cada resposta regulatória é extraída de um pool finito de analistas de MRM, desenvolvedores de modelos e validadores. Como essa capacidade é gasta, é a diferença entre uma plataforma que ajuda e uma que arrasta. Três benefícios estruturais decorrem de um substrato unificado:
O argumento estrutural para Databricks não é que ele lida com essa mudança de orientação mais rapidamente — embora o faça — mas que ele converte a próxima, e a seguinte, de um programa em uma configuração.
Uma restrição notável no roteiro de IA de um banco não é apenas computação ou dados — é a capacidade humana das equipes de risco de modelo e do Centro de Excelência (CoE). À medida que a orientação atual expande a definição de sistemas "semelhantes a modelos" para incluir GenAI e fluxos de trabalho agentivos, o volume de solicitações de validação superará o número de praticantes qualificados.
Em vez de cada protótipo de LLM exigir uma revisão manual personalizada, a Databricks permite que o CoE codifique o padrão do banco em uma camada de automação de primeira passagem.
O problema prático é familiar: uma unidade de negócios quer lançar um assistente LLM em quatro semanas, enquanto o CoE tem uma fila de seis meses.
A Databricks resolve isso permitindo que o CoE delegue a execução enquanto mantém o controle. O CoE fornece o conjunto de automação — o monitoramento, os cartões de modelo e as métricas que tornam a supervisão repetível. O negócio avança na velocidade da GenAI. A orientação de 2026 se converte de um gargalo em uma barreira de segurança.
A orientação de abril de 2026 não é a última mudança de supervisão que veremos neste ciclo. Princípios de IA agentiva, supervisão de modelos de terceiros e modelagem de risco climático estão todos em movimento. A questão é se nossa plataforma transforma cada um deles em um projeto de três trimestres ou um protótipo de quatro semanas. Essa escolha é feita uma vez.
(Esta publicação no blog foi traduzida utilizando ferramentas baseadas em inteligência artificial) Publicação original
Assine nosso blog e receba os posts mais recentes diretamente na sua caixa de entrada.