Revenir au contenu principal

Mise à disposition de modèles

Unifier le déploiement et la gouvernance pour tous les modèles d'IA

illustration-nodes-1-gray
video thumb

Introduction

Databricks Model Serving est un service unifié qui assure le déploiement, la gouvernance, l'interrogation et la supervision de modèles. Ceux-ci peuvent avoir été ajustés ou pré-déployés par Databricks (Llama 2, MosaicML MPT, BGE) ou provenir d'autres fournisseurs de modèles tels que Azure OpenAI, AWS Bedrock, AWS SageMaker et Anthropic. Grâce à notre approche unifiée, vous n'aurez aucune difficulté à expérimenter avec vos modèles et à tester leur mise en production, quel que soit le cloud ou le fournisseur, afin de trouver le meilleur candidat pour votre application en temps réel. Vous pourrez réaliser des tests A/B avec différents modèles et surveiller leur qualité sur des données en direct une fois le déploiement effectué. Model Serving propose également des modèles prédéployés comme Llama2 70B, pour accélérer le développement d'applications d'IA comme la génération augmentée de récupération (RAG). Deux approches de facturation, le paiement par jeton d'accès ou le paiement par calcul provisionné, offrent des garanties de throughput.

Témoignages de clients

Simplified deployment

Déploiement simplifié pour tous les modèles d'IA

Déployez tout type de modèle, qu'il s'agisse de modèles open source pré-entraînés ou de modèles personnalisés créés à partir de vos propres données, sur des CPU et des GPU. La gestion automatisée de la création de conteneurs et de l'infrastructure réduit les frais de maintenance et accélère le déploiement. Vous pouvez ainsi vous consacrer pleinement à vos projets d'IA et accélérer la création de valeur pour votre entreprise.

Simplified deployment

Gestion unifiée pour tous les modèles

Gérez tous les types de modèles : les modèles ML personnalisés comme PyFunc, scikit-learn et LangChain, et les modèles de fondation (FM), qu'ils soient hébergés par Databricks comme Llama 2, MPT et BGE, ou ailleurs, comme ChatGPT, Claude 2, Cohere et Stable Diffusion. Model Serving donne accès à tous les modèles au sein d'une interface utilisateur et d'une API unifiées couvrant aussi bien les modèles hébergés par Databricks que sur Azure et AWS.

Simplified deployment

Gouvernance intégrée

Respectez vos obligations de sécurité et de gouvernance, aussi strictes soient-elles, en appliquant des autorisations adaptées, en supervisant la qualité des modèles, en définissant des limites de débit et en suivant le lineage de tous les modèles, hébergés par Databricks ou ailleurs.

Unified with Lakehouse data

Modèles centrés sur les données

Accélérez les déploiements en réduisant le nombre d'erreurs grâce à une intégration en profondeur avec la plateforme de Data Intelligence. Hébergez facilement différents modèles d'IA générative, augmentés (RAG) ou ajustés (fine-tuning) à l'aide de données d'entreprise. Model Serving fournit des recherches automatisées, ainsi que des outils de supervision et de gouvernance pour l'ensemble du cycle de vie de l'IA.

real-time

Rentable

Les modèles sont servis sous la forme d'une API à faible latence sur un service serverless hautement disponible, prenant en charge à la fois les CPU et les GPU. Montez en charge sans effort pour répondre à vos besoins les plus pressants, et rétrogradez en fonction de l'évolution des exigences.Démarrez rapidement en misant sur un ou plusieurs modèles pré-déployés et choisissez le paiement par jeton (sur demande, sans engagement) ou le paiement par calcul provisionné pour un débit garanti. Databricks assure la gestion de l'infrastructure et les frais de maintenance afin que vous puissiez vous concentrer entièrement sur la création de valeur commerciale.

Consultez ces ressources pour bien démarrer

e-book

mlops-virtual-event-thumb

Prêt à vous lancer ?