Skip to main content

Mlflow administré

Gérer le cycle de vie du machine learning de bout en bout

Qu'est-ce que Managed MLflow ?

Managed MLflow est conçu à partir de MLflow, plateforme open source développée par Databricks pour faciliter la gestion du cycle de vie complet du machine learning et offrant un haut niveau d'évolutivité, de sécurité et de fiabilité.

Avantages

model development

Développement de modèles

Accélérez et simplifiez la gestion du cycle de vie du machine learning en vous appuyant sur un cadre normalisé pour développer des modèles de ML prêts pour la production. Avec les recettes MLflow managées, lancez rapidement des projets de ML, itérez à grande vitesse en toute simplicité et mettez en production des modèles de qualité à grande échelle.

Deploy a model for a batch interface

Suivi des tests

Lancez des tests avec n'importe quels langage, framework ou bibliothèque ML et effectuez automatiquement le suivi du code ou des paramètres, indicateurs et modèles de chaque test. En utilisant MLflow sur Databricks, vous disposez d'un moyen sécurisé de partager, gérer et comparer des résultats d'expérimentation, accompagnés de leurs artefacts et de leurs versions de code. Et tout cela grâce à l'intégration des Databricks Workspace et des notebooks.

model development

Gestion de modèles

Au sein d'un même emplacement centralisé, vous allez pouvoir partager des modèles ML, collaborer pour les faire passer de l'expérimentation aux tests et à la production, intégrer des workflows d'approbation et de gouvernance et assurer le suivi des déploiements ML et de leurs performances. Le Registre de modèles MLflow facilite le partage d'expertise et de connaissances et vous aide à garder le contrôle.

model development

Déploiement de modèles

Déployez rapidement des modèles en production pour les inférences par batch sur Apache Spark™ ou sous forme d'API REST grâce aux intégrations natives avec les conteneurs Docker, Azure ML ou Amazon SageMaker. Avec Managed MLflow sur Databricks, vous pouvez mettre en service et surveiller les modèles de production à l'aide de l'ordonnanceur Databricks et des clusters auto-gérés en fonction de vos besoins métier.

Fonctionnalités

mlflow model registry

MLflow Model Registry

DÉPÔT CENTRAL : inscrivez des modèles dans le Registre de modèles MLflow. Chaque modèle enregistré possède un nom, une version et un stade propres ainsi que d'autres métadonnées.

Contrôle de version des modèles : Conservez automatiquement la trace des versions des modèles enregistrés lors de leur mise à jour.

STADES DE MODÈLES : assignez des étapes prédéfinies ou personnalisées à chaque version de modèle, telle que « pré-production » ou « production » pour représenter le cycle de vie d'un modèle.

Intégrations de workflows CI/CD : Enregistrez les transitions entre les stades, demandez, évaluez et approuvez des changements dans le cadre de pipelines CI/CD pour un contrôle et une gouvernance optimisés.

Transitions entre stades de modèles : Conservez les nouveaux événements d'enregistrement ou leurs modifications sous forme d'activités gardant automatiquement une trace des utilisateurs, changements et nouvelles métadonnées telles que les commentaires.

mlflow models

MLflow Models

MLflow Models : Format standard d'empaquetage des modèles de machine learning utilisable avec divers outils en aval tels que la diffusion en temps réel par une API REST ou l'inférence par batch sous Apache Spark.

Personnalisation de modèles : Utilisez des modèles Python personnalisés et des saveurs personnalisées pour vos modèles à partir d'une bibliothèque ML non explicitement prise en charge par les saveurs intégrées à MLflow.

VARIANTES DE MODÈLES INTÉGRÉES : MLflow propose plusieurs variantes standard potentiellement utiles pour vos applications : Python et fonctions R, Hugging Face, OpenAI and LangChain, PyTorch, Spark MLlib, TensorFlow et ONNX.

OUTILS DE DÉPLOIEMENT INTÉGRÉS : déployez rapidement sur Databricks via Apache Spark UDF dans le cas d'une machine locale, ou dans plusieurs autres environnements de production comme Microsoft Azure ML, Amazon SageMaker, et créez des images Docker Images à déployer.

mlflow recipes

Recette MLflow

UN DÉMARRAGE SIMPLIFIÉ : les recettes MLflow fournissent des composants connectés prêts à l'emploi pour créer et déployer des modèles de ML.

ITÉRATION DE MODÈLES ACCÉLÉRÉE : les recettes MLflow découpent l'itération des modèles en étapes standardisées et réutilisables, ce qui rend le processus plus rapide et réduit son coût.

TRANSMISSION AUTOMATISÉE D'UNE ÉQUIPE À L'AUTRE : une structure articulée fournit du code modulaire prêt à mettre en production pour automatiser le passage de l'expérimentation à la production.

mlflow projects

MLflow Projects

PROJETS MLFLOW : les projets MLflow permettent de préciser l'environnement logiciel à utiliser pour exécuter votre code. À ce jour, MLflow prend en charge les environnements de projet suivants : Conda, conteneurs Docker et environnement système. Tout dépôt Git ou répertoire local peut être traité en tant que projet MLflow.

Mode d'exécution à distance : Exécutez des projets MLflow à distance depuis Git ou des sources locales sur des clusters Databricks à l'aide de la ligne de commande Databricks et adaptez ainsi rapidement votre code à n'importe quelle échelle.

mlflow tracking

MLFLOW TRACKING

MLflow Tracking : Enregistrez automatiquement les paramètres, versions du code, indicateurs et artefacts de chaque exécution avec Python, REST, l'API R et l'API JAVA.

Serveur MLflow Tracking : Démarrez rapidement avec un serveur de suivi inclus permettant d'enregistrer toutes vos exécutions et expériences en un seul et même endroit. Aucune configuration n'est requise sur Databricks.

Gestion des tests : Créez, sécurisez, organisez, recherchez et visualisez vos tests depuis le workspace et bénéficiez du contrôle d'accès et des requêtes de recherche.

Barre latérale d'exécutions MLflow : Suivez automatiquement vos exécutions directement depuis les notebooks et capturez un instantané à chaque exécution ; ainsi, vous êtes toujours en mesure de revenir à une version précédente de votre code.

Journalisation des données des exécutions : Enregistrez les paramètres, jeux de données, indicateurs, artefacts, etc. en tant qu'exécutions, que ce soit dans des fichiers locaux, dans une base de données compatible SQLAlchemy ou encore à distance sur un serveur de suivi.

Intégration Delta Lake : Effectuez le suivi des jeux de données à grande échelle qui ont servi à alimenter vos modèles grâce aux instantanés Delta Lake.

Banque d'artefacts : Stockez des fichiers volumineux tels que des buckets Amazon S3 buckets, des systèmes de fichiers NFS partagés et des modèles sur Amazon S3, Azure Blob Storage, Google Cloud Storage, un SFTP, NFS ou via des chemins de fichiers locaux.

Consultez les actus sur nos produits publiées sur Azure Databricks et AWS pour découvrir nos dernières fonctionnalités.

Comparaison des offres MLflow

mlflow table

Comment ça marche

MLflow est un ensemble d'interfaces utilisateur et d'API légères utilisables avec n'importe quelle infrastructure ML sur l'ensemble du workflow de machine learning. Il regroupe quatre composants : MLflow Tracking, MLflow Projects, MLflow Models et MLflow Model Registry

En savoir plus sur MLflow

managed mlflow
MLFLOW TRACKING

Enregistrez et interrogez vos expérimentations : code, données, configuration et résultats.

En savoir plus
managed mlflow
MLflow Projects

Un format de package pour des cycles reproductibles sur n'importe quelle plateforme.

En savoir plus
managed mlflow
MLflow Models

Un format général pour envoyer des modèles vers différents outils de déploiement.

En savoir plus
managed mlflow
MLflow Model Registry

Un dépôt centralisé permettant de gérer les modèles MLflow de manière collaborative, tout au long de leur cycle de vie.

En savoir plus

MLflow managé
sur Databricks

Managed MLflow sur Databricks est une version entièrement gérée de MLflow qui permet aux utilisateurs de reproduire et gérer leurs expérimentations avec les notebooks Databricks, les tâches et les dépôts de données. Il profite également de la fiabilité, de la sécurité et de l'évolutivité de la Unified Data Analytics Platform.

Lire la documentation

Log your first run as an experiment

Ressources