Mlflow administré
Gérer le cycle de vie du machine learning de bout en bout
Qu'est-ce que Managed MLflow ?
Managed MLflow élargit la fonctionnalité de MLflow, la plateforme open source développée par Databricks. Dédiée à la gestion du cycle de vie du machine learning, elle offre une fiabilité, une sécurité et une évolutivité de niveau entreprise. La dernière mise à jour de MLflow introduit de nouvelles fonctionnalités LLMOps qui facilitent la gestion et le déploiement de grands modèles de langage (LLM). Cet élargissement de la prise en charge des LLM est le fruit de nouvelles intégrations à deux outils LLM de référence, les transformeurs Hugging Face et les fonctions OpenAI, ainsi qu'à la passerelle IA de MLflow. D'autre part, l'ajout de LangChain et d'une UI d'ingénierie de prompts simplifie le développement de modèles axés sur la création d'applications d'IA générative dans un large éventail de domaines : robot conversationnel, synthèse de document, classification de texte, analyse de sentiment et plus encore.
Avantages
Développement de modèles
Améliorez et accélérez la gestion du cycle de vie du machine learning grâce à un cadre normalisé qui facilite la création de modèles prêts pour la production. Appuyez-vous sur les recettes de Managed MLflow pour mettre sur pied des projets de ML sans difficulté, itérer rapidement et déployer des modèles à grande échelle. Élaborez sans efforts des applications de robot conversationnel, de synthèse de documents, d'analyse du sentiment et de classification. Développez très simplement des applications d'IA générative (robot conversationnel, synthèse de documents) avec la passerelle IA et l'interface d'ingénierie de prompts de MLflow, toutes deux intégrées sans couture à LangChain, Hugging Face et OpenAI.
Suivi des tests
Lancez des tests avec n'importe quels langage, framework ou bibliothèque ML et effectuez automatiquement le suivi du code ou des paramètres, indicateurs et modèles de chaque test. En utilisant MLflow sur Databricks, vous disposez d'un moyen sécurisé de partager, gérer et comparer des résultats d'expérimentation, accompagnés de leurs artefacts et de leurs versions de code. Et tout cela grâce à l'intégration des Databricks Workspace et des notebooks.
Gestion de modèles
Au sein d'un même emplacement centralisé, vous allez pouvoir partager des modèles ML, collaborer pour les faire passer de l'expérimentation aux tests et à la production, intégrer des workflows d'approbation et de gouvernance et assurer le suivi des déploiements ML et de leurs performances. Le Registre de modèles MLflow facilite le partage d'expertise et de connaissances et vous aide à garder le contrôle.
Déploiement de modèles
Déployez rapidement des modèles en production pour les inférences par batch sur Apache Spark™ ou sous forme d'API REST grâce aux intégrations natives avec les conteneurs Docker, Azure ML ou Amazon SageMaker. Avec Managed MLflow sur Databricks, vous pouvez mettre en service et surveiller les modèles de production à l'aide de l'ordonnanceur Databricks et des clusters auto-gérés en fonction de vos besoins métier.
Les dernières modifications apportées à MLflow englobent des applications d'IA générative pour faciliter leur déploiement. Robot conversationnel, synthèse de documents, analyse du sentiment, classification... Vous pouvez désormais déployer vos applications d'IA générative à grande échelle avec la mise à disposition de modèles offerte par Databricks.
Fonctionnalités
MLFLOW TRACKING
MLflow Tracking : Enregistrez automatiquement les paramètres, versions du code, indicateurs et artefacts de chaque exécution avec Python, REST, l'API R et l'API JAVA.
INGÉNIERIE DE PROMPTS : le modèle de développement simplifié permet de créer des applications d'IA générative pour un large éventail de cas d'usage – robots conversationnels, synthèse de documents, analyse du sentiment et classification. La passerelle IA et l'interface d'ingénierie de prompts de MLflow sont prises en charge par une intégration native avec LangChain et offrent une UI sans code pour faciliter le prototypage et l'itération.
Serveur MLflow Tracking : Démarrez rapidement avec un serveur de suivi inclus permettant d'enregistrer toutes vos exécutions et expériences en un seul et même endroit. Aucune configuration n'est requise sur Databricks.
Gestion des tests : Créez, sécurisez, organisez, recherchez et visualisez vos tests depuis le workspace et bénéficiez du contrôle d'accès et des requêtes de recherche.
Barre latérale d'exécutions MLflow : Suivez automatiquement vos exécutions directement depuis les notebooks et capturez un instantané à chaque exécution ; ainsi, vous êtes toujours en mesure de revenir à une version précédente de votre code.
Journalisation des données des exécutions : Enregistrez les paramètres, jeux de données, indicateurs, artefacts, etc. en tant qu'exécutions, que ce soit dans des fichiers locaux, dans une base de données compatible SQLAlchemy ou encore à distance sur un serveur de suivi.
Intégration Delta Lake : Effectuez le suivi des jeux de données à grande échelle qui ont servi à alimenter vos modèles grâce aux instantanés Delta Lake.
Banque d'artefacts : Stockez des fichiers volumineux tels que des buckets Amazon S3 buckets, des systèmes de fichiers NFS partagés et des modèles sur Amazon S3, Azure Blob Storage, Google Cloud Storage, un SFTP, NFS ou via des chemins de fichiers locaux.
MLflow Models
MLflow Models : Format standard d'empaquetage des modèles de machine learning utilisable avec divers outils en aval tels que la diffusion en temps réel par une API REST ou l'inférence par batch sous Apache Spark.
Personnalisation de modèles : Utilisez des modèles Python personnalisés et des saveurs personnalisées pour vos modèles à partir d'une bibliothèque ML non explicitement prise en charge par les saveurs intégrées à MLflow.
VARIANTES DE MODÈLES INTÉGRÉES : MLflow propose plusieurs variantes standard potentiellement utiles pour vos applications : Python et fonctions R, Hugging Face, OpenAI et LangChain, PyTorch, Spark MLlib, TensorFlow et ONNX.
OUTILS DE DÉPLOIEMENT INTÉGRÉS : déployez rapidement sur Databricks via Apache Spark UDF dans le cas d'une machine locale, ou dans plusieurs autres environnements de production comme Microsoft Azure ML, Amazon SageMaker, et créez des images Docker Images à déployer.
MLflow Model Registry
DÉPÔT CENTRAL : inscrivez des modèles dans le Registre de modèles MLflow. Chaque modèle enregistré possède un nom, une version et un stade propres ainsi que d'autres métadonnées.
Contrôle de version des modèles : Conservez automatiquement la trace des versions des modèles enregistrés lors de leur mise à jour.
STADES DE MODÈLES : assignez des étapes prédéfinies ou personnalisées à chaque version de modèle, telle que « pré-production » ou « production » pour représenter le cycle de vie d'un modèle.
Intégrations de workflows CI/CD : Enregistrez les transitions entre les stades, demandez, évaluez et approuvez des changements dans le cadre de pipelines CI/CD pour un contrôle et une gouvernance optimisés.
Transitions entre stades de modèles : Conservez les nouveaux événements d'enregistrement ou leurs modifications sous forme d'activités gardant automatiquement une trace des utilisateurs, changements et nouvelles métadonnées telles que les commentaires.
Passerelle IA MLflow
ENCADREZ L'ACCÈS AUX LLM : gérez les identifiants d'accès aux LLM en SaaS
CONTRÔLEZ LES COÛTS : Fixez des limites d'usage
NORMALISEZ LES INTERACTIONS AVEC LES LLM : Expérimentez différents LLM en OSS/SaaS avec des interfaces d'entrée/sortie standard pour différentes tâches : complétion automatique, discussion, incorporations.
Recette MLflow
UN DÉMARRAGE SIMPLIFIÉ : les recettes MLflow fournissent des composants connectés prêts à l'emploi pour créer et déployer des modèles de ML.
ITÉRATION DE MODÈLES ACCÉLÉRÉE : les recettes MLflow découpent l'itération des modèles en étapes standardisées et réutilisables, ce qui rend le processus plus rapide et réduit son coût.
TRANSMISSION AUTOMATISÉE D'UNE ÉQUIPE À L'AUTRE : une structure articulée fournit du code modulaire prêt à mettre en production pour automatiser le passage de l'expérimentation à la production.
MLflow Projects
PROJETS MLFLOW : les projets MLflow permettent de préciser l'environnement logiciel à utiliser pour exécuter votre code. À ce jour, MLflow prend en charge les environnements de projet suivants : Conda, conteneurs Docker et environnement système. Tout dépôt Git ou répertoire local peut être traité en tant que projet MLflow.
Mode d'exécution à distance : Exécutez des projets MLflow à distance depuis Git ou des sources locales sur des clusters Databricks à l'aide de la ligne de commande Databricks et adaptez ainsi rapidement votre code à n'importe quelle échelle.
Consultez les actus sur nos produits publiées sur Azure Databricks et AWS pour découvrir nos dernières fonctionnalités.
Comparaison des offres MLflow
Open Source MLflow | Managed MLflow on Databricks | |
---|---|---|
Suivi des tests | ||
API de suivi MLflow | ||
Serveur de suivi MLflow | Auto-hébergé | Entièrement géré |
Intégration des notebooks | ||
Intégration des workflows | ||
Projets reproductibles | ||
MLflow Projects | ||
Intégration Git et Conda | ||
Cloud/clusters évolutifs pour l'exécution des projets | ||
Gestion de modèles | ||
MLflow Model Registry | ||
Contrôle de versions des modèles | ||
Transition d'étape ACL | ||
Intégrations de workflows CI/CD | ||
Déploiements flexibles | ||
Inférence par batch intégrée | ||
MLflow Models | ||
Analyses en streaming intégrées | ||
Sécurité et gestion | ||
Haute disponibilité | ||
Mises à jour automatiques | ||
Contrôle d'accès basé sur les rôles |
Comment ça marche
MLflow est un ensemble d'interfaces utilisateur et d'API légères utilisables avec n'importe quelle infrastructure ML sur l'ensemble du workflow de machine learning. Il regroupe quatre composants : MLflow Tracking, MLflow Projects, MLflow Models et MLflow Model Registry
MLflow managé
sur Databricks
Managed MLflow sur Databricks est une version entièrement gérée de MLflow qui permet aux utilisateurs de reproduire et gérer leurs expérimentations avec les notebooks Databricks, les tâches et les dépôts de données. Il profite également de la fiabilité, de la sécurité et de l'évolutivité de la plateforme lakehouse de Databricks.