O MLflow tornou-se a base para MLOps em escala, com mais de 30 milhões de downloads mensais e contribuições de mais de 850 desenvolvedores em todo o mundo, alimentando cargas de trabalho de ML e deep learning para milhares de empresas. Hoje, estamos entusiasmados em anunciar o MLflow 3.0, uma grande evolução que traz o mesmo rigor e confiabilidade para a IA generativa, enquanto aprimora as capacidades centrais para todas as cargas de trabalho de IA. Essas novas capacidades poderosas estão disponíveis tanto no MLflow de código aberto quanto como um serviço totalmente gerenciado no Databricks, onde proporcionam uma experiência de desenvolvimento GenAI de nível empresarial.
Embora a IA gerativa introduza novos desafios em torno da observabilidade, medição de qualidade e gerenciamento de prompts e configurações em rápida evolução, o MLflow 3.0 os aborda sem exigir que você integre mais uma plataforma especializada. MLflow 3.0 é uma plataforma unificada para aplicações de IA generativa, aprendizado de máquina tradicional e aprendizado profundo. Seja você está construindo agentes GenAI, treinando classificadores ou ajustando redes neurais, o MLflow 3.0 fornece fluxos de trabalho consistentes, governança padronizada e confiabilidade de produção que escala de acordo com suas necessidades.
Uma olhada rápida no MLflow 3.0:
A IA generativa mudou a forma como pensamos sobre qualidade. Ao contrário do ML tradicional com rótulos de verdade básica, as saídas do GenAI são livres, matizadas e variadas. Um único prompt pode gerar dezenas de respostas diferentes que são todas igualmente corretas. Como você mede se a resposta de um chatbot é "boa"? Como você garante que seu agente não está alucinando? Como você depura cadeias complexas de prompts, recuperações e chamadas de ferramentas?
Essas perguntas apontam para três desafios centrais que toda organização enfrenta ao construir aplicações GenAI:
Hoje, organizações que tentam resolver esses desafios enfrentam uma paisagem fragmentada. Eles usam ferramentas separadas para gerenciamento de dados, observabilidade e avaliação, e implantação. Esta abordagem cria lacunas significativas: a depuração de problemas requer alternância entre plataformas, a avaliação ocorre isoladamente dos dados reais de produção e o feedback do usuário nunca retorna para melhorar o aplicativo. As equipes gastam mais tempo integrando ferramentas do que melhorando seus aplicativos GenAI. Diante dessa complexidade, muitas organizações simplesmente desistem da garantia de qualidade sistemática. Eles recorrem a testes manuais não estruturados, enviando para produção quando as coisas parecem "boas o suficiente", e esperando pelo melhor.
Resolver esses desafios GenAI para entregar aplicações de alta qualidade requer novas capacidades, mas não deveria exigir o gerenciamento de múltiplas plataformas. É por isso que o MLflow 3.0 amplia nossa comprovada base de MLOps para suportar de forma abrangente o GenAI em uma única plataforma com uma experiência unificada que inclui:
"O rastreamento do MLflow 3.0 tem sido essencial para escalar nossa plataforma de segurança alimentada por IA. Ele nos dá visibilidade de ponta a ponta em cada decisão do modelo, ajudando-nos a depurar mais rápido, monitorar o desempenho e garantir que nossas defesas evoluam à medida que as ameaças o fazem. Com a integração perfeita do LangChain e o autologging, conseguimos tudo isso sem sobrecarga de engenharia adicional."— Sam Chou, Engenheiro Principal na Barracuda
Para demonstrar como o MLflow 3.0 transforma a maneira como as organizações constroem, avaliam e implantam aplicações de IA generativa de alta qualidade, seguiremos um exemplo do mundo real: construção de um chatbot de suporte ao cliente de comércio eletrônico. Veremos como o MLflow aborda cada um dos três principais desafios do GenAI ao longo do caminho, permitindo que você passe rapidamente da depuração para a implantação. Ao longo desta jornada, vamos aproveitar todo o poder do Managed MLflow 3.0 no Databricks, incluindo ferramentas integradas como o Review App, Deployment Jobs e a governança do Unity Catalog que tornam o desenvolvimento GenAI empresarial prático em escala.
Seu chatbot de comércio eletrônico entrou em beta, mas os testadores reclamam de respostas lentas e recomendações de produtos imprecisas. Sem visibilidade nas complexas cadeias de prompts, recuperações e chamadas de ferramentas de sua aplicação GenAI, você está depurando às cegas e experimentando o desafio da observabilidade em primeira mão.
As mudanças de rastreamento em escala de produção do MLflow 3.0 mudam tudo. Com apenas algumas linhas de código, você pode capturar rastreamentos detalhados de mais de 20 bibliotecas GenAI e lógica de negócios personalizada em qualquer ambiente, desde o desenvolvimento até a produção. O pacote leve mlflow-tracing
é otimizado para desempenho, permitindo que você registre rapidamente quantos rastreamentos forem necessários. Construído sobre o OpenTelemetry, ele oferece observabilidade em escala empresarial com máxima portabilidade.
Após instrumentar seu código com o Rastreamento MLflow, você pode navegar até a interface do usuário MLflow para ver cada rastreamento capturado automaticamente. A visualização em linha do tempo revela por que as respostas demoram mais de 15 segundos: seu aplicativo verifica o estoque em cada armazém separadamente (5 chamadas sequenciais) e recupera todo o histórico de pedidos do cliente (mais de 500 pedidos) quando só precisa das compras recentes. Após paralelizar as verificações de armazém e filtrar por pedidos recentes, o tempo de resposta cai em mais de 50%.
Com os problemas de latência resolvidos, voltamos nossa atenção para a qualidade, pois os testadores beta ainda reclamam sobre recomendações de produtos irrelevantes. Antes de podermos melhorar a qualidade, precisamos medi-la sistematicamente. Isso destaca o segundo desafio GenAI: como você mede a qualidade quando as saídas GenAI são livres e variadas?
O MLflow 3.0 simplifica a avaliação de qualidade. Crie um conjunto de dados de avaliação a partir de seus rastreamentos de produção, em seguida, execute juízes LLM respaldados por pesquisas alimentados pelo Databricks Mosaic AI Agent Evaluation:
Esses juízes avaliam diferentes aspectos da qualidade de um rastreamento GenAI e fornecem justificativas detalhadas para os problemas detectados. Olhando para os resultados da avaliação, revela-se o problema: enquanto as pontuações de segurança e fundamentação parecem boas, a pontuação de relevância de recuperação de 65% confirma que seu sistema de recuperação frequentemente busca as informações erradas, resultando em respostas menos relevantes.
Os juízes LLM do MLflow são avaliadores cuidadosamente ajustados que correspondem à expertise humana. Você pode criar juízes personalizados usando diretrizes adaptadas às necessidades do seu negócio. Construa e versione conjuntos de dados de avaliação a partir de conversas reais de usuários, incluindo interações bem-sucedidas, casos extremos e cenários desafiadores. O MLflow lida com a avaliação em escala, tornando a avaliação de qualidade sistemática prática para qualquer tamanho de aplicação.
A pontuação de relevância de recuperação de 65% aponta para a causa raiz, mas corrigi-la requer entender o que o sistema deve recuperar. Entre no Review App, uma interface web para coletar feedback estruturado de especialistas sobre as saídas de IA, agora integrada ao MLflow 3.0. Este é o início da sua jornada de melhoria contínua para transformar insights de produção em aplicações de maior qualidade
Você cria sessões de rotulagem onde especialistas em produtos revisam rastreamentos com recuperações ruins. Quando um cliente pede por "fones de ouvido sem fio por menos de $200 com suporte a codec aptX HD e bateria de mais de 30 horas", mas recebe resultados genéricos de fones de ouvido, seus especialistas anotam exatamente quais produtos correspondem a TODOS os requisitos.
O Review App permite que especialistas do domínio revisem respostas reais e documentos de origem por meio de uma interface web intuitiva, sem necessidade de codificação. Eles marcam quais produtos foram corretamente recuperados e identificam pontos de confusão (como fones de ouvido com fio vs. sem fio). As anotações dos especialistas se tornam dados de treinamento para melhorias futuras e ajudam a alinhar seus juízes LLM com os padrões de qualidade do mundo real.
Armado com anotações de especialistas, você reconstrói seu sistema de recuperação. Você muda da correspondência de palavras-chave para a pesquisa semântica que entende especificações técnicas e atualiza prompts para serem mais cautelosos sobre recursos de produtos não confirmados. Mas como você rastreia essas mudanças e garante que elas melhoram a qualidade?
O Rastreamento de Versão do MLflow 3.0 captura todo o seu aplicativo como um instantâneo, incluindo código do aplicativo, prompts, parâmetros LLM, lógica de recuperação, algoritmos de reranking e mais. Cada versão conecta todos os rastros e métricas gerados durante seu uso. Quando surgem problemas, você pode rastrear qualquer resposta problemática de volta à exata versão que a produziu.
Os prompts requerem atenção especial: pequenas alterações na redação podem alterar drasticamente o comportamento do seu aplicativo, tornando-os difíceis de testar e propensos a regressões. Felizmente, o novo Prompt Registry do MLflow traz rigor de engenharia especificamente para o gerenciamento de prompts. Solicitações de versão com rastreamento ao estilo Git, teste diferentes versões em produção e reverta instantaneamente, se necessário. A interface do usuário mostra diferenças visuais entre as versões, facilitando a visualização do que mudou e o entendimento do impacto no desempenho. O Registro de Prompts do MLflow também se integra com os otimizadores DSPy para gerar prompts aprimorados automaticamente a partir dos seus dados de avaliação.
Com o rastreamento de versões abrangente em vigor, meça se suas mudanças realmente melhoraram a qualidade:
Os resultados confirmam que suas correções funcionam: a relevância da recuperação salta de 65% para 91%, e a relevância da resposta melhora para 93%.
Com melhorias verificadas em mãos, é hora de implantar. Os Trabalhos de Implantação do MLflow 3.0 garantem que apenas aplicações validadas que atendem aos seus requisitos de qualidade cheguem à produção. Registrar uma nova versão do seu aplicativo aciona automaticamente a avaliação e apresenta os resultados para aprovação, e a integração completa do Unity Catalog fornece governança e rastreamento de auditoria. Este mesmo fluxo de trabalho de registro de modelo suporta modelos de ML tradicionais, modelos de aprendizado profundo e aplicações GenAI.
Após os trabalhos de implantação, são realizadas automaticamente verificações adicionais de qualidade e os stakeholders revisam os resultados, seu chatbot aprimorado passa por todos os portões de qualidade e é aprovado para produção. Agora que você vai atender milhares de clientes, você instrumenta seu aplicativo para coletar feedback do usuário final:
Após a implantação em produção, seus painéis mostram que as taxas de satisfação são fortes, pois os clientes recebem recomendações de produtos precisas graças às suas melhorias. A combinação de monitoramento de qualidade automatizado de seus juízes LLM e feedback do usuário em tempo real lhe dá confiança de que seu aplicativo está entregando valor. Se surgirem problemas, você tem os rastreamentos e feedbacks para entender e resolver rapidamente.
Os dados de produção agora são seu roteiro para melhoria. Isso completa o ciclo de melhoria contínua, das percepções de produção às melhorias de desenvolvimento e vice-versa. Exporte rastreamentos com feedback negativo diretamente para conjuntos de dados de avaliação. Use o Rastreamento de Versões para comparar implantações e identificar o que está funcionando. Quando novos problemas ocorrem, você tem um processo sistemático: colete rastreamentos problemáticos, obtenha anotações de especialistas, atualize seu aplicativo e implante com confiança. Cada problema se torna um caso de teste permanente, prevenindo regressões e construindo um aplicativo mais forte ao longo do tempo.
O MLflow 3.0 nos deu a visibilidade de que precisávamos para depurar e melhorar nossos agentes de Q&A com confiança. O que costumava levar horas de adivinhação agora pode ser diagnosticado em minutos, com total rastreabilidade em cada recuperação, etapa de raciocínio e chamada de ferramenta."— Daisuke Hashimoto, Líder Técnico na Woven by Toyota.
O MLflow 3.0 reúne todas essas capacidades de IA em uma única plataforma. A mesma infraestrutura de rastreamento que captura todos os detalhes de suas aplicações GenAI também fornece visibilidade para o serviço tradicional de modelos de ML. Os mesmos fluxos de trabalho de implantação cobrem tanto modelos de deep learning quanto aplicações alimentadas por LLM. A mesma integração com o Unity Catalog fornece mecanismos de governança testados em batalha para todos os tipos de ativos de IA. Esta abordagem unificada reduz a complexidade ao mesmo tempo que garante uma gestão consistente em todas as iniciativas de IA.
As melhorias do MLflow 3.0 beneficiam todas as cargas de trabalho de IA. A nova abstração LoggedModel para versionamento de aplicações GenAI também simplifica o rastreamento de pontos de verificação de aprendizado profundo ao longo das iterações de treinamento. Assim como as versões GenAI se vinculam aos seus rastreamentos e métricas, os modelos de ML tradicionais e os pontos de verificação de aprendizado profundo agora mantêm uma linhagem completa conectando execuções de treinamento, conjuntos de dados e métricas de avaliação calculadas em diferentes ambientes. Os Trabalhos de Implantação garantem implantações de aprendizado de máquina de alta qualidade com portões de qualidade automatizados para cada tipo de modelo. Estes são apenas alguns exemplos das melhorias que o MLflow 3.0 traz para modelos clássicos de ML e modelos de aprendizado profundo através de seu gerenciamento unificado de todos os tipos de ativos de IA.
Como a base para MLOps e observabilidade de IA no Databricks, o MLflow 3.0 integra-se perfeitamente com toda a Plataforma AI Mosaic. O MLflow aproveita o Catálogo Unity para governança centralizada de modelos, aplicações GenAI, prompts e conjuntos de dados. Você pode até usar o Databricks AI/BI para construir painéis a partir de seus dados MLflow, transformando métricas de IA em insights de negócios.
Se você está apenas começando com GenAI ou operando centenas de modelos e agentes em escala, o MLflow 3.0 Gerenciado no Databricks tem as ferramentas de que você precisa. Junte-se às milhares de organizações que já usam o MLflow e descubra por que ele se tornou o padrão para o desenvolvimento de IA.
Cadastre-se GRATUITAMENTE no Managed MLflow no Databricks para começar a usar o MLflow 3.0 em minutos. Você terá confiabilidade de nível empresarial, segurança e integrações perfeitas com toda a Plataforma Lakehouse do Databricks.
Para os usuários existentes do Databricks Managed MLflow, a atualização para o MLflow 3.0 oferece acesso imediato a novas capacidades poderosas. Seus experimentos atuais, modelos e fluxos de trabalho continuam funcionando perfeitamente enquanto você obtém rastreamento de produção, juízes LLM, monitoramento online e mais para suas aplicações de IA generativa, sem necessidade de migração.
(This blog post has been translated using AI-powered tools) Original Post