Centre de démos

Grâce à ces vidéos simples à la demande, vous obtiendrez un premier aperçu de Databricks du point de vue des professionnels. Chaque démo ci-dessous est accompagnée d'éléments connexes — notamment des notebooks, des vidéos et des eBooks — afin que vous puissiez vous-même tester Databricks.

Essayer gratuitement
image d'arrière-plan

Démos Produits

Centre de démos

Dans cette démo, vous aurez un aperçu général de la plateforme Databricks Lakehouse, avec notamment une discussion sur l'intégration des projets open source, tels qu'Apache Spark™, Delta Lake, MLflow et Koalas, dans l'écosystème Databricks. En savoir plus →

Dans cette démo, nous présentons quelques fonctionnalités du nouveau Databricks SQL qui sont importantes pour les data analysts, notamment le navigateur de données intégré, l'éditeur de requêtes SQL avec live autocomplete, les outils intégrés de visualisation de données et les capacités flexibles de création de tableau de bord et d'alerte. Par ailleurs, vous découvrirez comment les paramètres de Databricks SQL apportent une ressource de calcul haute performance, à faible latence et optimisée par SQL capable de faire fonctionner vos outils BI existants tels que Power BI et Tableau. En savoir plus →

Databricks Workflows

Databricks Workflows est un service d'orchestration entièrement managé pour toutes vos données, vos analytiques et vos applications IA. Son intégration profonde avec la plateforme Lakehouse sous-jacente vous assure de créer et d'exécuter des charges fiables en production sur n'importe quel cloud, tout en effectuant une surveillance détaillée et centralisée d'une grande simplicité pour l'utilisateur final.
En savoir plus →

Unity Catalog Demo

In this brief demonstration, we give you a first look at Unity Catalog, a unified governance solution for all data and AI assets. Unity Catalog provides a single interface to centrally manage access permissions and audit controls for all data assets in your lakehouse, along with the capability to easily search, view lineage and share data. Learn more →

Delta Sharing

In this brief demonstration, we give you a first look at Delta Sharing, an open standard for secure sharing of data assets. You will discover how you can leverage Delta Sharing on Databricks to securely share your existing data across computing platforms, without replicating the data. Data recipients do not need to be on the Databricks platform, on the same cloud or in the cloud at all. Learn more →

Delta Lake sur Databricks vous permet de créer une  architecture lakehouse regroupant les principaux avantages des data lakes et des data warehouses. Cette plateforme simple et ouverte stocke et gère vos données tout en prenant en charge vos cas d'usage d'analytique et d'IA. Dans cette démo, nous vous expliquons les fonctionnalités de Delta Lake, notamment le traitement unifié des données batch et streaming, l'évolution et l'application de schémas, la fonction « Time Travel » (versioning) et la prise en charge des commandes UPDATE, MERGE et DELETE. Par ailleurs, la démo met en avant certaines améliorations de performance disponibles avec Delta Lake sur Databricks. En savoir plus →

Dans cette démonstration, nous vous présentons un cas d'usage concret de machine learning et de data science sur Databricks afin de montrer comment les différents membres de l'équipe data peuvent interagir et collaborer sur la plateforme Databricks. Par ailleurs, vous découvrirez comment MLflow on Databricks simplifie et rationalise le cycle de vie de machine learning de bout en bout. En savoir plus →

Dans cette démo, nous vous offrons un premier aperçu de Delta Live Tables, un service cloud qui facilite la mise en place de capacités ETL (extraction, transformation et chargement) fiables sur Delta Lake. Il permet aux équipes de data engineering de simplifier le développement ETL grâce à une interface utilisateur simple et à des outils déclaratifs, d'améliorer la fiabilité des données grâce à des règles définies de qualité des données et au monitoring des données erronées, mais aussi d'étendre les opérations grâce à une visibilité approfondie via un journal des événements. En savoir plus →

Avec Databricks Auto Loader, vous pouvez ingérer progressivement et efficacement de nouveaux fichiers de données batch et streaming en temps réel dans vos tables Delta Lake dès leur arrivée. Ainsi, ils contiennent toujours les données disponibles les plus complètes et les plus récentes. Les utilisateurs de SQL n'ont qu'à utiliser la commande « COPY INTO » pour intégrer automatiquement de nouvelles données dans leurs tables Delta Lake. Pas besoin d'effectuer un suivi des fichiers déjà traités. En savoir plus →










Centre de démos

Dans cette démo, vous aurez un aperçu général de la plateforme Databricks Lakehouse, avec notamment une discussion sur l'intégration des projets open source, tels qu'Apache Spark™, Delta Lake, MLflow et Koalas, dans l'écosystème Databricks. En savoir plus →

Dans cette démo, nous présentons quelques fonctionnalités du nouveau Databricks SQL qui sont importantes pour les data analysts, notamment le navigateur de données intégré, l'éditeur de requêtes SQL avec live autocomplete, les outils intégrés de visualisation de données et les capacités flexibles de création de tableau de bord et d'alerte. Par ailleurs, vous découvrirez comment les paramètres de Databricks SQL apportent une ressource de calcul haute performance, à faible latence et optimisée par SQL capable de faire fonctionner vos outils BI existants tels que Power BI et Tableau. En savoir plus →

Databricks Workflows

Databricks Workflows est un service d'orchestration entièrement managé pour toutes vos données, vos analytiques et vos applications IA. Son intégration profonde avec la plateforme Lakehouse sous-jacente vous assure de créer et d'exécuter des charges fiables en production sur n'importe quel cloud, tout en effectuant une surveillance détaillée et centralisée d'une grande simplicité pour l'utilisateur final.
En savoir plus →

Unity Catalog Demo

In this brief demonstration, we give you a first look at Unity Catalog, a unified governance solution for all data and AI assets. Unity Catalog provides a single interface to centrally manage access permissions and audit controls for all data assets in your lakehouse, along with the capability to easily search, view lineage and share data. Learn more →

Delta Sharing

In this brief demonstration, we give you a first look at Delta Sharing, an open standard for secure sharing of data assets. You will discover how you can leverage Delta Sharing on Databricks to securely share your existing data across computing platforms, without replicating the data. Data recipients do not need to be on the Databricks platform, on the same cloud or in the cloud at all. Learn more →

Delta Lake sur Databricks vous permet de créer une  architecture lakehouse regroupant les principaux avantages des data lakes et des data warehouses. Cette plateforme simple et ouverte stocke et gère vos données tout en prenant en charge vos cas d'usage d'analytique et d'IA. Dans cette démo, nous vous expliquons les fonctionnalités de Delta Lake, notamment le traitement unifié des données batch et streaming, l'évolution et l'application de schémas, la fonction « Time Travel » (versioning) et la prise en charge des commandes UPDATE, MERGE et DELETE. Par ailleurs, la démo met en avant certaines améliorations de performance disponibles avec Delta Lake sur Databricks. En savoir plus →

Dans cette démonstration, nous vous présentons un cas d'usage concret de machine learning et de data science sur Databricks afin de montrer comment les différents membres de l'équipe data peuvent interagir et collaborer sur la plateforme Databricks. Par ailleurs, vous découvrirez comment MLflow on Databricks simplifie et rationalise le cycle de vie de machine learning de bout en bout. En savoir plus →

Dans cette démo, nous vous offrons un premier aperçu de Delta Live Tables, un service cloud qui facilite la mise en place de capacités ETL (extraction, transformation et chargement) fiables sur Delta Lake. Il permet aux équipes de data engineering de simplifier le développement ETL grâce à une interface utilisateur simple et à des outils déclaratifs, d'améliorer la fiabilité des données grâce à des règles définies de qualité des données et au monitoring des données erronées, mais aussi d'étendre les opérations grâce à une visibilité approfondie via un journal des événements. En savoir plus →

Avec Databricks Auto Loader, vous pouvez ingérer progressivement et efficacement de nouveaux fichiers de données batch et streaming en temps réel dans vos tables Delta Lake dès leur arrivée. Ainsi, ils contiennent toujours les données disponibles les plus complètes et les plus récentes. Les utilisateurs de SQL n'ont qu'à utiliser la commande « COPY INTO » pour intégrer automatiquement de nouvelles données dans leurs tables Delta Lake. Pas besoin d'effectuer un suivi des fichiers déjà traités. En savoir plus →

Démo Partenaires

La plateforme Lakehouse d'Azure Databricks vous offre le meilleur des data lakes et des data warehouses sur une plateforme simple, ouverte et collaborative qui s'intègre en toute sécurité à vos services Azure existants. Dans cette démo, vous verrez les intégrations d'Azure Databricks les plus courantes, telles que Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure IoT Hub, Azure Synapse Analytics, ou encore Power BI. En savoir plus →

Databricks fonctionne sur AWS et s'intègre à tous les principaux services que vous utilisez, comme S3, EC2, Redshift, etc. Nous fournissons la plateforme vous permettant de regrouper tous ces services afin de créer une architecture lakehouse. Dans cette démo, nous vous montrons comment Databricks s'intègre à tous ces services de manière simple et transparente. En savoir plus →

Intégration Databricks sur Google Cloud – Promotion

Databricks sur Google Cloud est un service mis au point conjointement qui vous permet de stocker toutes vos données sur une plateforme lakehouse simple et ouverte combinant le meilleur des data warehouses et des data lakes. Unifiez toutes vos charges de travail d'analytique et d'IA sur une plateforme unique. L'intégration étroite avec Google Cloud Storage, BigQuery et Google Cloud AI Platform permet à Databricks de fonctionner en toute transparence sur les services de data et d'IA sur Google Cloud.

Découvrez facilement des outils validés de données, d'analytique et d'IA directement au sein de la plateforme Databricks et intégrez rapidement les outils que vous utilisez déjà actuellement. Avec Partner Connect, vous pouvez simplifier l'intégration des outils en quelques clics et étendre rapidement les capacités de votre lakehouse. En savoir plus →





La plateforme Lakehouse d'Azure Databricks vous offre le meilleur des data lakes et des data warehouses sur une plateforme simple, ouverte et collaborative qui s'intègre en toute sécurité à vos services Azure existants. Dans cette démo, vous verrez les intégrations d'Azure Databricks les plus courantes, telles que Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure IoT Hub, Azure Synapse Analytics, ou encore Power BI. En savoir plus →

Databricks fonctionne sur AWS et s'intègre à tous les principaux services que vous utilisez, comme S3, EC2, Redshift, etc. Nous fournissons la plateforme vous permettant de regrouper tous ces services afin de créer une architecture lakehouse. Dans cette démo, nous vous montrons comment Databricks s'intègre à tous ces services de manière simple et transparente. En savoir plus →

Intégration Databricks sur Google Cloud – Promotion

Databricks sur Google Cloud est un service mis au point conjointement qui vous permet de stocker toutes vos données sur une plateforme lakehouse simple et ouverte combinant le meilleur des data warehouses et des data lakes. Unifiez toutes vos charges de travail d'analytique et d'IA sur une plateforme unique. L'intégration étroite avec Google Cloud Storage, BigQuery et Google Cloud AI Platform permet à Databricks de fonctionner en toute transparence sur les services de data et d'IA sur Google Cloud.

Découvrez facilement des outils validés de données, d'analytique et d'IA directement au sein de la plateforme Databricks et intégrez rapidement les outils que vous utilisez déjà actuellement. Avec Partner Connect, vous pouvez simplifier l'intégration des outils en quelques clics et étendre rapidement les capacités de votre lakehouse. En savoir plus →

Démos Accélérateur de solution

In this Solution Accelerator, we demonstrate how to use the Databricks Lakehouse Platform to better understand and quantify the holistic ESG impact of any investment in a company or business in order to generate alpha, mitigate reputation risk and maintain the trust of both clients and shareholders. Learn more →

Dans cet Accélérateur de solution, nous vous montrons comment utiliser Apache Spark™ et Facebook Prophet™ pour créer des dizaines de modèles de prévision de séries chronologiques en parallèle sur la plateforme Lakehouse de Databricks. En savoir plus →

Identifiez vos clients les plus importants et à la durée de vie la plus longue. Découvrez à quel moment prioriser les ressources et limiter les dépenses pour des clients non rentables — afin d'améliorer le retour sur investissement des programmes marketing. En savoir plus →




In this Solution Accelerator, we demonstrate how to use the Databricks Lakehouse Platform to better understand and quantify the holistic ESG impact of any investment in a company or business in order to generate alpha, mitigate reputation risk and maintain the trust of both clients and shareholders. Learn more →

Dans cet Accélérateur de solution, nous vous montrons comment utiliser Apache Spark™ et Facebook Prophet™ pour créer des dizaines de modèles de prévision de séries chronologiques en parallèle sur la plateforme Lakehouse de Databricks. En savoir plus →

Identifiez vos clients les plus importants et à la durée de vie la plus longue. Découvrez à quel moment prioriser les ressources et limiter les dépenses pour des clients non rentables — afin d'améliorer le retour sur investissement des programmes marketing. En savoir plus →

Essayez gratuitement Databricks pendant 14 jours

En cliquant sur « Essayer gratuitement », vous acceptez la Politique de confidentialité et les Conditions de service