Estamos animados em anunciar o lançamento do whitepaper Databricks AI Security Framework (DASF) Agentic AI Extension! Os clientes Databricks já estão implantando agentes de IA que consultam bancos de dados, chamam APIs externas, executam código e coordenam com outros agentes. Ouvimos constantemente que as equipes responsáveis por essas implantações estão fazendo perguntas difíceis: o que acontece quando a IA pode fazer coisas, não apenas dizer coisas? É por isso que estendemos o DASF.
Com esta atualização, introduzimos novas orientações para proteger agentes autônomos de IA:
Juntas, essas adições ajudam as organizações a implantar agentes de IA com segurança, mantendo a governança, a observabilidade e os controles de segurança de defesa em profundidade.
Isso eleva o framework completo para 97 riscos e 73 controles. Atualizamos o compêndio DASF (Google sheet, Excel) para incluir esses novos riscos e controles, mapeando-os para padrões da indústria para facilitar a operacionalização imediata. Essas adições são catalogadas como DASF v3.0 na coluna "DASF Revision".
Sistemas tradicionais de IA como RAG operam principalmente em modo somente leitura. Mas agentes de IA podem tomar ações como consultar bancos de dados, chamar APIs, executar código e interagir com ferramentas externas.
Agentes funcionam de maneira diferente. Quando um usuário interage com um agente, o modelo inicia um loop: ele divide a solicitação em subtarefas, escolhe uma ferramenta (por exemplo, "Consultar Banco de Dados de Vendas"), a executa, avalia o resultado e decide se deve chamar outra ferramenta em seguida. Isso continua até que a tarefa seja concluída. O agente está tomando decisões em tempo real sobre quais dados acessar e quais ferramentas invocar — decisões que antes eram tomadas por humanos ou codificadas na lógica do aplicativo.
Isso cria uma nova classe de risco que chamamos de Descoberta e Travessia. Um agente projetado para encontrar soluções percorrerá caminhos de dados e interfaces de ferramentas que nunca foram destinados ao usuário solicitante. Não é uma exploração de um bug. É exatamente o que foi construído para fazer. Mas sem os controles adequados, o usuário efetivamente herda as permissões do agente em vez das suas.
A Tríade Letal. Pesquisas recentes da indústria, incluindo o “Agents Rule of Two” da Meta e modelos semelhantes como o “Lethal Trifecta” de Simon Willison, destacam as condições sob as quais isso se torna perigoso. O perfil de risco aumenta quando três condições estão presentes simultaneamente:
Com todas as três em vigor, uma injeção de prompt indireta incorporada em dados não confiáveis pode sequestrar todo o conjunto de capacidades do agente, transformando-o em um "deputado confuso" que executa ações autorizadas com intenção maliciosa. Remova qualquer um dos três elementos, limitando as permissões, adicionando um ponto de verificação humano, validando a intenção antes da seleção da ferramenta e quebrando a cadeia de ataque.
Os 35 novos riscos e 6 controles são organizados em torno de três subcomponentes que mapeiam como os agentes realmente funcionam:
Esses riscos visam o loop de raciocínio do agente. Envenenamento de Memória (Risco 13.1) introduz contexto falso que altera decisões atuais ou futuras. Quebra de Intenção e Manipulação de Objetivos (Risco 13.6) força o agente a se desviar de seu objetivo. E como os agentes operam em loops multi-turn, Ataques de Alucinação em Cascata (Risco 13.5) podem agravar um pequeno erro ao longo das iterações em uma ação destrutiva.
Agentes interagem com sistemas externos por meio de ferramentas, cada vez mais padronizadas via Model Context Protocol (MCP). No lado do servidor, os atacantes podem implantar Envenenamento de Ferramentas (Risco 13.18) — injetando comportamento malicioso nas definições de ferramentas — ou explorar Injeção de Prompt (Risco 13.16) dentro das descrições de ferramentas para contornar os controles de segurança.
No lado do cliente, se o agente se conectar a um Servidor Malicioso (Risco 13.26) ou falhar em validar as respostas do servidor, ele corre o risco de Execução de Código no Lado do Cliente (Risco 13.32) ou Vazamento de Dados (Risco 13.30). À medida que a adoção do MCP cresce, proteger a fronteira cliente-servidor é tão importante quanto proteger o raciocínio do agente.
Agentes se comunicarão cada vez mais com outros agentes. Isso cria riscos de Envenenamento de Comunicação de Agentes (Risco 13.12) e Agentes Invasores em Sistemas Multiagentes (Risco 13.13) — agentes que operam fora dos limites de monitoramento, um problema que se agrava com a escala.
O DASF sempre foi sobre defesa em profundidade. Mas quando um sistema de IA pode tomar ações, controles de acesso somente leitura não são suficientes. Os novos controles abordam isso diretamente:
Para clientes Databricks, o compêndio mapeia esses controles para capacidades da plataforma, incluindo a governança do Unity Catalog para acesso a dados de agentes, o Agent Bricks Framework, os mecanismos de proteção do AI Gateway e as configurações de segurança do Vector Search.
Esta extensão reflete o feedback de revisores e colaboradores da Databricks e da comunidade de segurança, incluindo equipes da Atlassian, Experian e ComplyLeft. Também nos baseamos fortemente no trabalho da MITRE ATLAS, OWASP, NIST e Cloud Security Alliance — o compêndio atualizado mapeia todos os 97 riscos e 73 controles para esses padrões da indústria.
Baixe o whitepaper do DASF Agentic AI Extension para o tratamento completo de todos os 35 novos riscos de IA agentic e 6 novos controles, e pegue o compêndio atualizado (Google Sheet, Excel) que agora mapeia riscos e controles agentic ao lado do DASF original. Use esses recursos para:
Para um contexto mais aprofundado, leia o whitepaper completo do DASF e explore a documentação do Agent Bricks Framework para ver como esses controles funcionam na plataforma.
Entre em contato com sua equipe de contas Databricks ou envie um e-mail para [email protected] com feedback — este framework pertence à comunidade tanto quanto a nós.
(Esta publicação no blog foi traduzida utilizando ferramentas baseadas em inteligência artificial) Publicação original
