Revenir au contenu principal

Annonces de Mosaic AI au Data + AI Summit 2025

Data Intelligence for AI

Publié: 11 juin 2025

Annonces6 min de lecture

Summary

  • Agent Bricks : Créez des agents de haute qualité et spécifiques à un domaine en décrivant la tâche — Agent Bricks génère automatiquement des évaluations et optimise la qualité et le coût.
  • MLflow 3.0 : Repensé pour GenAI avec une observabilité des agents, le versionnement des invites et une surveillance multiplateforme — même pour les agents exécutés en dehors de Databricks.
  • AI Runtime : Exécutez l'entraînement et l'inférence sans gérer l'infrastructure — des GPU entièrement gérés et à mise à l'échelle automatique sont maintenant disponibles en version bêta.

L'année dernière, nous avons lancé la data intelligence – l'IA capable de raisonner sur vos données d'entreprise – avec l'arrivée de la pile Databricks Mosaic AI pour la création et le déploiement de systèmes d'agents. Depuis, des milliers de clients ont mis l'IA en production. Cette année, lors du Data and AI Summit, nous sommes ravis d'annoncer plusieurs produits clés :

Agent Bricks en version bêta

Agent Bricks est une nouvelle façon de créer des agents de haute qualité, auto-optimisés sur vos données. Il suffit de fournir une description générale de la tâche de l'agent et de connecter vos données d'entreprise – Agent Bricks s'occupe du reste. Agent Bricks est optimisé pour les cas d'utilisation courants de l'industrie, notamment l'extraction d'informations structurées, l'assistance basée sur la connaissance, la transformation de texte personnalisée et la création de systèmes multi-agents. Nous utilisons les dernières recherches sur les agents de l'équipe de recherche Databricks Mosaic AI pour construire automatiquement des évaluations et optimiser la qualité des agents. Pour plus de détails, consultez l'article de blog détaillé sur Agent Bricks : Agent Bricks.

Agent Bricks
Figure 1 : Agent Bricks optimise automatiquement les agents pour vos données et votre tâche

MLflow 3.0

Nous lançons MLflow 3, qui a été entièrement repensé pour l'IA générative, avec les dernières avancées en matière de surveillance, d'évaluation et de gestion du cycle de vie. Désormais, avec MLflow 3, vous pouvez surveiller et observer les agents déployés n'importe où, même en dehors de Databricks. Les agents déployés sur AWS, GCP ou même sur des systèmes sur site peuvent désormais être connectés à MLflow 3 pour l'observabilité des agents.

MLflow 3.0
Figure 2 : L'observabilité en temps réel est désormais disponible même pour les agents déployés en dehors de Databricks

Nous avons également inclus dans MLflow 3 un registre de prompts, vous permettant d'enregistrer, de versionner, de tester et de déployer différents prompts LLM pour vos systèmes d'agents. 

Fonctions IA dans SQL : désormais plus rapides et multimodales

Les Fonctions IA permettent aux utilisateurs d'accéder facilement à la puissance de l'IA générative directement depuis SQL. Cette année, nous sommes ravis de vous annoncer que les Fonctions IA bénéficient désormais d'améliorations spectaculaires des performances et de capacités multimodales étendues. Les Fonctions IA sont désormais jusqu'à 3 fois plus rapides et 4 fois moins chères que celles des autres fournisseurs sur les charges de travail à grande échelle, vous permettant de traiter des transformations de données à grande échelle avec une vitesse sans précédent. 

Fonctions IA dans SQL
Figure 3 : L'intelligence documentaire arrive sur Databricks avec l'introduction de ai_parse dans SQL.

Au-delà des performances, les Fonctions IA prennent désormais en charge les capacités multimodales, vous permettant de travailler de manière transparente avec du texte, des images et d'autres types de données. De nouvelles fonctions comme ai_parse_document facilitent l'extraction d'informations structurées à partir de documents complexes, débloquant ainsi des informations à partir de contenu d'entreprise auparavant difficiles à traiter.

Les Fonctions IA sont désormais 3 fois plus rapides
Figure 4 : Les Fonctions IA dans SQL sont désormais plus de 3 fois plus rapides que la concurrence sur les charges de travail mises à l'échelle

Vector Search optimisé pour le stockage en préversion publique

Mosaic AI Vector Search constitue l'épine dorsale de nombreux systèmes de récupération, et en particulier des agents RAG, et notre produit Vector Search est l'un des produits à la croissance la plus rapide chez Databricks. Nous avons entièrement réécrit l'infrastructure à partir de zéro selon les principes de séparation du calcul et du stockage. Notre nouveau Vector Search optimisé pour le stockage peut gérer des milliards de vecteurs tout en offrant un coût 7 fois inférieur. Cette avancée rend économiquement viable la création d'applications RAG sophistiquées et de systèmes de recherche sémantique sur l'ensemble de votre parc de données. Que vous alimentiez des chatbots de support client ou que vous permettiez la découverte avancée de documents, vous pouvez désormais passer à l'échelle sans les coûts prohibitifs. Consultez notre article de blog détaillé pour une analyse technique approfondie et des benchmarks de performance.

AI Runtime en version bêta

Nous annonçons une avancée majeure dans le calcul serverless avec l'introduction du support GPU dans la plateforme serverless de Databricks. Les charges de travail d'IA alimentées par GPU sont désormais plus accessibles que jamais, ce service entièrement géré éliminant la complexité de la gestion des GPU. Que vous entraîniez des modèles, exécutiez des inférences ou traitiez des transformations de données à grande échelle, AI Runtime fournit les performances dont vous avez besoin sans la surcharge opérationnelle. Entièrement intégré à la plateforme Databricks, AI Runtime permet un accès à la demande aux A10g (bêta aujourd'hui) et aux H100 (bientôt disponibles), sans être lié à des réservations à long terme. Exécutez des notebooks sur des GPU serverless et soumettez-les en tant que jobs, avec la gouvernance complète d'Unity Catalog.

AI Runtime
Figure 5 : Les notebooks et jobs serverless peuvent désormais s'exécuter sur des GPU, avec A10G en bêta et H100 bientôt disponibles

Service de modèles à grande échelle

Les applications d'IA d'entreprise exigent aujourd'hui un débit accru et des latences plus faibles pour être prêtes pour la production. Notre infrastructure de service de modèles améliorée prend désormais en charge plus de 250 000 requêtes par seconde (QPS). Apportez vos charges de travail ML en ligne en temps réel à Databricks, et nous nous occuperons des défis d'infrastructure et de fiabilité afin que vous puissiez vous concentrer sur le développement de modèles d'IA. 

Avec le service LLM, nous avons lancé un nouveau moteur d'inférence propriétaire interne dans toutes les régions. Le moteur d'inférence contient nombre de nos innovations privées et de nos noyaux personnalisés pour accélérer l'inférence de Meta Llama et d'autres LLM open source. Sur les charges de travail courantes, notre moteur d'inférence est jusqu'à 1,5 fois plus rapide que des moteurs open source correctement configurés tels que vLLM-v1. Associées au reste de notre infrastructure de service LLM, ces innovations signifient que le service de LLM sur Databricks est plus facile, plus rapide et souvent moins coûteux au total que les solutions de service DIY.

Des chatbots aux moteurs de recommandation, vos services d'IA peuvent désormais passer à l'échelle pour gérer même les charges de travail d'entreprise les plus exigeantes.

Support MCP dans Databricks

Le Model Context Protocol (MCP) d'Anthropic est un protocole populaire pour fournir des outils et des connaissances aux grands modèles linguistiques. Nous avons désormais intégré le MCP directement dans la plateforme Databricks. Les serveurs MCP peuvent être hébergés avec Databricks Apps, offrant un moyen transparent de déployer et de gérer des services conformes au MCP sans gestion d'infrastructure supplémentaire. Vous pouvez interagir avec et tester des modèles compatibles MCP directement dans notre environnement Playground, ce qui facilite l'expérimentation de différentes configurations et capacités de modèles. 

Support MCP
Figure 6 : Prototypage rapide de serveurs MCP avec le support intégré de Playground

De plus, vous pouvez désormais connecter vos agents pour exploiter Databricks avec le lancement de serveurs MCP hébergés par Databricks pour les fonctions UC, Genie et Vector Search. Pour en savoir plus, consultez notre documentation

AI Gateway est disponible en général

AI Gateway d'Agent Bricks est désormais disponible en général. Ce point d'entrée unifié pour tous vos services d'IA offre une gouvernance centralisée, l'enregistrement de l'utilisation et le contrôle sur l'ensemble de votre portefeuille d'applications d'IA. Nous avons également ajouté une série de nouvelles capacités, allant de la possibilité de basculer automatiquement entre différents fournisseurs, à des garde-fous pour la PII et la sécurité. Avec AI Gateway, vous pouvez implémenter des politiques de limitation de débit, suivre l'utilisation et appliquer des garde-fous de sécurité sur les charges de travail d'IA, qu'elles s'exécutent sur Databricks ou via des services externes.

Pour commencer

Ces annonces témoignent de notre engagement continu à rendre l'IA d'entreprise plus accessible, performante et rentable. Chaque innovation s'appuie sur notre plateforme de data intelligence, garantissant que vos applications d'IA peuvent exploiter toute la puissance de vos données d'entreprise tout en maintenant les normes de gouvernance et de sécurité requises par votre organisation.

Prêt à explorer ces nouvelles capacités ? Commencez avec notre niveau gratuit ou contactez votre représentant Databricks pour savoir comment ces innovations peuvent accélérer vos initiatives d'IA.

(Cet article de blog a été traduit à l'aide d'outils basés sur l'intelligence artificielle) Article original

Ne manquez jamais un article Databricks

Abonnez-vous à notre blog et recevez les derniers articles dans votre boîte mail.