Il est crucial de comprendre la valeur de vos investissements en IA et en données — pourtant, plus de 52 % des entreprises ne parviennent pas à mesurer rigoureusement le retour sur investissement (ROI) [Futurum]. Une visibilité complète du retour sur investissement nécessite de relier l'utilisation de la plateforme et l'infrastructure cloud afin d'obtenir une vue d'ensemble financière claire. Souvent, les données sont disponibles mais fragmentées, car les plateformes de données actuelles doivent prendre en charge un éventail croissant d'architectures de stockage et de compute.
Sur Databricks, les clients gèrent des environnements multi-cloud, multi-charges de travail et multi-équipes. Dans ces environnements, disposer d'une vue cohérente et complète des coûts est essentiel pour prendre des décisions éclairées.
Au cœur de la visibilité des coûts sur des plateformes comme Databricks se trouve le concept de coût total de possession (TCO).
Sur les plateformes de données multi-cloud, comme Databricks, le TCO se compose de deux composants principaux :
La compréhension du TCO est simplifiée lors de l'utilisation de produits serverless. Comme le compute est géré par Databricks, les coûts de l'infrastructure cloud sont inclus dans les coûts de Databricks, vous offrant une visibilité centralisée des coûts directement dans les tables système de Databricks (bien que les coûts de stockage resteront imputés au fournisseur de cloud).
La compréhension du TCO pour les produits de compute classiques est cependant plus complexe. Ici, les clients gèrent le compute directement avec le fournisseur de cloud, ce qui signifie que les coûts de la plateforme Databricks et les coûts de l'infrastructure cloud doivent être rapprochés. Dans ces cas, il y a deux sources de données distinctes à résoudre :
Ensemble, ces sources forment la vue complète du TCO. À mesure que votre environnement se développe sur de nombreux clusters, Jobs et comptes cloud, la compréhension de ces datasets devient un élément essentiel de l'observabilité des coûts et de la gouvernance financière.
La complexité du calcul de votre TCO Databricks est accentuée par les différentes manières dont les fournisseurs de cloud pr ésentent et communiquent les données de coût. Comprendre comment joindre ces jeux de données aux tables système pour produire des KPI de coûts précis nécessite une connaissance approfondie des mécanismes de facturation cloud, une connaissance que de nombreux administrateurs de plateforme spécialisés dans Databricks n'ont peut-être pas. Ici, nous examinons en détail la mesure de votre TCO pour Azure Databricks et Databricks sur AWS.
Azure Databricks étant un service de première partie au sein de l'écosystème Microsoft Azure, les frais liés à Databricks apparaissent directement dans Azure Cost Management aux côtés d'autres services Azure, y compris les balises spécifiques à Databricks. Les coûts de Databricks apparaissent dans l'interface utilisateur d'analyse des coûts Azure et en tant que données de gestion des coûts.
Cependant, les données d'Azure Cost Management ne contiendront pas les métadonnées plus détaillées au niveau de la charge de travail ni les métriques de performance présentes dans les tables système de Databricks. Ainsi, de nombreuses organisations cherchent à importer les exports de facturation Azure dans Databricks.
Pourtant, joindre entièrement ces deux sources de données prend du temps et nécessite une connaissance approfondie du domaine, un effort que la plupart des clients n'ont tout simplement pas le temps de définir, de maintenir et de répliquer. Plusieurs défis y contribuent :
Sur AWS, bien que les coûts Databricks apparaissent dans le Cost and Usage Report (CUR) et dans AWS Cost Explorer, ils sont représentés à un niveau SKU plus agrégé, contrairement à Azure. De plus, les coûts de Databricks n'apparaissent dans le CUR que lorsque Databricks est acheté via la Marketplace AWS ; dans le cas contraire, le CUR ne reflétera que les coûts d'infrastructure AWS.
Dans ce cas, comprendre comment co-analyser l'AWS CUR avec les tables système est encore plus critique pour les clients disposant d'environnements AWS. Cela permet aux équipes d'analyser les dépenses d'infrastructure, l'utilisation des DBU et les remises, ainsi que le contexte au niveau du cluster et de la charge de travail, créant ainsi une vue plus complète du TCO sur les comptes et régions AWS.
Cependant, la jonction d'AWS CUR avec les tables système peut également s'avérer complexe. Les difficultés courantes sont les suivantes :
Dans les environnements Databricks à l'échelle de la production, les questions de coût dépassent rapidement le cadre des dépenses globales. Les équipes veulent comprendre les coûts dans leur contexte : comment l'infrastructure et l'utilisation de la plateforme sont liées aux charges de travail et aux décisions réelles. Les questions courantes sont les suivantes :
Répondre à ces questions nécessite de rassembler les données financières des fournisseurs de cloud et les métadonnées opérationnelles de Databricks. Pourtant, comme décrit ci-dessus, les équipes doivent maintenir des pipelines personnalisés et une base de connaissances détaillée sur la facturation cloud et Databricks pour y parvenir.
Pour répondre à ce besoin, Databricks présente la Cloud Infra Cost Field Solution — une solution open source qui automatise l'ingestion et l'analyse unifiée des données d'infrastructure cloud et d'utilisation de Databricks, au sein de la plateforme Databricks.
En fournissant une base unifiée pour l'analyse du TCO sur les environnements de calcul serverless et classiques de Databricks, la solution Field aide les organisations à obtenir une meilleure visibilité des coûts et à comprendre les compromis architecturaux. Les équipes d'ingénierie peuvent suivre les dépenses cloud et les remises, tandis que les équipes financières peuvent identifier le contexte commercial et les responsables des principaux postes de dépenses.
Dans la section suivante, nous vous expliquerons le fonctionnement de la solution et comment démarrer.
Bien que les composants puissent avoir des noms différents, la solution Cloud Infra Cost Field pour les clients Azure et AWS partage les mêmes principes et peut être décomposée en plusieurs composants :
Les solutions Field pour AWS et Azure sont excellentes pour les organisations qui opèrent au sein d'un seul cloud, mais elles peuvent également être combinées pour les clients Databricks multi-cloud à l'aide de Delta Sharing.
La solution Cloud Infra Cost Field Solution pour Azure Databricks se compose des composants d'architecture suivants :
Architecture de la solution Azure Databricks
Pour déployer cette solution, les administrateurs doivent disposer des autorisations suivantes sur Azure et Databricks :
Le GitHub repository fournit des instructions de configuration plus détaillées ; cependant, à un niveau général, la solution pour Azure Databricks comprend les étapes suivantes :
[Azure] Configurez Azure Cost Management Export pour exporter les données de facturation Azure vers le compte de stockage et confirmez que les données s'exportent correctement.
Compte de stockage avec l'exportation Azure Cost Management configurée
Tableau de bord d'IA/BI affichant le TCO d'Azure Databricks
La solution pour Databricks sur AWS se compose de plusieurs composants d'architecture qui fonctionnent ensemble pour ingérer les données du Cost & Usage Report (CUR) 2.0 d'AWS et les persister dans Databricks à l'aide de l'architecture médaillon.
Pour déployer cette solution, les autorisations et configurations suivantes doivent être en place sur AWS et Databricks :
Le repository GitHub fournit des instructions de configuration plus détaillées ; cependant, dans les grandes lignes, la solution pour AWS Databricks comprend les étapes suivantes.
Comme le démontrent les solutions Azure et AWS, il existe de nombreux exemples concrets qu'une solution comme celle-ci permet, tels que :
À titre d'exemple pratique, un praticien FinOps dans une grande organisation gérant des milliers de charges de travail peut être chargé de trouver les opportunités d'optimisation les plus évidentes en recherchant des charges de travail qui coûtent un certain montant, mais qui ont également une faible utilisation du processeur et/ou de la mémoire. Étant donné que les informations sur le TCO de l'organisation sont désormais exposées via la solution Cloud Infra Cost Field, le praticien peut alors joindre ces données à la table système Node Timeline (AWS, AZURE, GCP) pour faire apparaître ces informations et quantifier avec précision les économies de coûts une fois les optimisations terminées. Les questions les plus importantes dépendront des besoins métier de chaque client. Par exemple, General Motors utilise ce type de solution pour répondre à bon nombre des questions ci-dessus et plus encore, afin de s'assurer qu'ils tirent le meilleur parti de leur architecture lakehouse.
Après avoir mis en œuvre la solution Cloud Infra Cost Field, les organisations obtiennent une vue unique et fiable du TCO qui combine les dépenses de Databricks et de l'infrastructure cloud associée, éliminant le besoin de rapprochement manuel des coûts entre les plateformes. Voici des exemples de questions auxquelles vous pouvez répondre à l'aide de la solution :
Les équipes de plateforme et FinOps peuvent analyser en détail les coûts complets par workspace, charge de travail et unité commerciale directement dans Databricks, ce qui facilite grandement l'alignement de l'utilisation sur les budgets, les modèles de responsabilité et les pratiques FinOps. Comme toutes les données sous-jacentes sont disponibles sous forme de tables gouvernées, les équipes peuvent créer leurs propres applications de gestion des coûts — des tableaux de bord, des applications internes ou utiliser des assistants IA intégrés comme Databricks Genie— accélérant ainsi la génération d'insight et transformant le FinOps d'un exercice de reporting périodique en une capacité opérationnelle permanente.
Déployez la solution Cloud Infra Cost Field dès aujourd'hui depuis GitHub (link ici, disponible sur AWS et Azure) et obtenez une visibilité complète sur vos dépenses Databricks totales. Une fois la visibilité complète en place, vous pouvez optimiser vos coûts Databricks, y compris en envisageant le serverless pour la gestion automatisée de l'infrastructure.
Le tableau de bord et le pipeline créés dans le cadre de cette solution offrent un moyen rapide et efficace de commencer à analyser les dépenses Databricks ainsi que le reste de vos coûts d'infrastructure. Cependant, chaque organisation alloue et interprète les frais différemment, vous pouvez donc choisir de personnaliser davantage les modèles et les transformations en fonction de vos besoins. Les extensions courantes incluent la jonction des données sur les coûts d'infrastructure avec des tables système Databricks supplémentaires (AWS | AZURE | GCP) pour améliorer la précision de l'attribution, la création d'une logique pour séparer ou réallouer les coûts de machines virtuelles partagées lors de l'utilisation de pools d'instances, la modélisation différente des réservations de machines virtuelles ou l'incorporation de remplissages historiques pour prendre en charge l'analyse des tendances des coûts à long terme. Comme pour tout modèle de coût d'hyperscaler, il existe une marge de manœuvre considérable pour personnaliser les pipelines au-delà de l'implémentation par défaut afin de les aligner sur les rapports internes, les stratégies de tagging et les exigences FinOps.
Les Delivery Solutions Architects (DSA) de Databricks accélèrent les initiatives de données et d'IA au sein des organisations. Ils assurent le leadership architectural, optimisent les plateformes en termes de coût et de performance, améliorent l'expérience des développeurs et assurent la réussite de l'exécution des projets. Les DSA font le lien entre le déploiement initial et les solutions prêtes pour la production, en travaillant en étroite collaboration avec diverses équipes, notamment l'ingénierie des données, les responsables techniques, les dirigeants et d'autres parties prenantes, afin de garantir des solutions sur mesure et un délai de rentabilisation plus rapide. Pour bénéficier d'un plan d'exécution personnalisé, de conseils stratégiques et d'un soutien de la part d'un DSA tout au long de votre parcours de données et d'IA, veuillez contacter votre équipe de compte Databricks.
(Cet article de blog a été traduit à l'aide d'outils basés sur l'intelligence artificielle) Article original
tecnología
October 17, 2025/34 min de leitura