Centre de démos

Grâce à ces vidéos simples à la demande, vous obtiendrez un premier aperçu de Databricks du point de vue des professionnels. Chaque démo ci-dessous est accompagnée d'éléments connexes — notamment des notebooks, des vidéos et des eBooks — afin que vous puissiez vous-même tester Databricks.

Essayer gratuitement
image d'arrière-plan

Démos Produits

Centre de démos

Dans cette démo, vous aurez un aperçu général de la plateforme Databricks Lakehouse, avec notamment une discussion sur l'intégration des projets open source, tels qu'Apache Spark™, Delta Lake, MLflow et Koalas, dans l'écosystème Databricks. En savoir plus →

Dans cette démo, nous présentons quelques fonctionnalités du nouveau Databricks SQL qui sont importantes pour les data analysts, notamment le navigateur de données intégré, l'éditeur de requêtes SQL avec live autocomplete, les outils intégrés de visualisation de données et les capacités flexibles de création de tableau de bord et d'alerte. Par ailleurs, vous découvrirez comment les paramètres de Databricks SQL apportent une ressource de calcul haute performance, à faible latence et optimisée par SQL capable de faire fonctionner vos outils BI existants tels que Power BI et Tableau. En savoir plus →

Databricks Workflows

Databricks Workflows est un service d'orchestration entièrement managé pour toutes vos données, vos analytiques et vos applications IA. Son intégration profonde avec la plateforme Lakehouse sous-jacente vous assure de créer et d'exécuter des charges fiables en production sur n'importe quel cloud, tout en effectuant une surveillance détaillée et centralisée d'une grande simplicité pour l'utilisateur final.
En savoir plus →

Démonstration de Unity Catalog

Dans cette brève démonstration, vous aurez un premier aperçu de Unity Catalog, une solution de gouvernance unifiée pour tous les assets de données et d'IA. Unity Catalog offre une interface unique qui centralise la gestion des autorisations d'accès et des contrôles d'audit pour tous les assets de données de votre lakehouse. Il vous donne également la possibilité d'interroger et partager les données, et fournit des informations sur leur généalogie. En savoir plus →

Delta Sharing

Dans cette brève démonstration, vous aurez un premier aperçu de Delta Sharing, une norme ouverte pour le partage sécurisé des assets de données. Vous découvrirez comment exploiter Delta Sharing sur Databricks pour partager vos données en toute sécurité entre différentes plateformes informatiques sans avoir à les répliquer. Les destinataires des données n'ont pas besoin d'utiliser la plateforme Databricks, ni le même cloud, voire de n'être tout simplement pas dans le cloud ! En savoir plus →

Delta Lake sur Databricks vous permet de créer une  architecture lakehouse regroupant les principaux avantages des data lakes et des data warehouses. Cette plateforme simple et ouverte stocke et gère vos données tout en prenant en charge vos cas d'usage d'analytique et d'IA. Dans cette démo, nous vous expliquons les fonctionnalités de Delta Lake, notamment le traitement unifié des données batch et streaming, l'évolution et l'application de schémas, la fonction « Time Travel » (versioning) et la prise en charge des commandes UPDATE, MERGE et DELETE. Par ailleurs, la démo met en avant certaines améliorations de performance disponibles avec Delta Lake sur Databricks. En savoir plus →

Dans cette démonstration, nous vous présentons un cas d'usage concret de machine learning et de data science sur Databricks afin de montrer comment les différents membres de l'équipe data peuvent interagir et collaborer sur la plateforme Databricks. Par ailleurs, vous découvrirez comment MLflow on Databricks simplifie et rationalise le cycle de vie de machine learning de bout en bout. En savoir plus →

Dans cette démo, nous vous offrons un premier aperçu de Delta Live Tables, un service cloud qui facilite la mise en place de capacités ETL (extraction, transformation et chargement) fiables sur Delta Lake. Il permet aux équipes de data engineering de simplifier le développement ETL grâce à une interface utilisateur simple et à des outils déclaratifs, d'améliorer la fiabilité des données grâce à des règles définies de qualité des données et au monitoring des données erronées, mais aussi d'étendre les opérations grâce à une visibilité approfondie via un journal des événements. En savoir plus →

Avec Databricks Auto Loader, vous pouvez ingérer progressivement et efficacement de nouveaux fichiers de données batch et streaming en temps réel dans vos tables Delta Lake dès leur arrivée. Ainsi, ils contiennent toujours les données disponibles les plus complètes et les plus récentes. Les utilisateurs de SQL n'ont qu'à utiliser la commande « COPY INTO » pour intégrer automatiquement de nouvelles données dans leurs tables Delta Lake. Pas besoin d'effectuer un suivi des fichiers déjà traités. En savoir plus →










Centre de démos

Dans cette démo, vous aurez un aperçu général de la plateforme Databricks Lakehouse, avec notamment une discussion sur l'intégration des projets open source, tels qu'Apache Spark™, Delta Lake, MLflow et Koalas, dans l'écosystème Databricks. En savoir plus →

Dans cette démo, nous présentons quelques fonctionnalités du nouveau Databricks SQL qui sont importantes pour les data analysts, notamment le navigateur de données intégré, l'éditeur de requêtes SQL avec live autocomplete, les outils intégrés de visualisation de données et les capacités flexibles de création de tableau de bord et d'alerte. Par ailleurs, vous découvrirez comment les paramètres de Databricks SQL apportent une ressource de calcul haute performance, à faible latence et optimisée par SQL capable de faire fonctionner vos outils BI existants tels que Power BI et Tableau. En savoir plus →

Databricks Workflows

Databricks Workflows est un service d'orchestration entièrement managé pour toutes vos données, vos analytiques et vos applications IA. Son intégration profonde avec la plateforme Lakehouse sous-jacente vous assure de créer et d'exécuter des charges fiables en production sur n'importe quel cloud, tout en effectuant une surveillance détaillée et centralisée d'une grande simplicité pour l'utilisateur final.
En savoir plus →

Démonstration de Unity Catalog

Dans cette brève démonstration, vous aurez un premier aperçu de Unity Catalog, une solution de gouvernance unifiée pour tous les assets de données et d'IA. Unity Catalog offre une interface unique qui centralise la gestion des autorisations d'accès et des contrôles d'audit pour tous les assets de données de votre lakehouse. Il vous donne également la possibilité d'interroger et partager les données, et fournit des informations sur leur généalogie. En savoir plus →

Delta Sharing

Dans cette brève démonstration, vous aurez un premier aperçu de Delta Sharing, une norme ouverte pour le partage sécurisé des assets de données. Vous découvrirez comment exploiter Delta Sharing sur Databricks pour partager vos données en toute sécurité entre différentes plateformes informatiques sans avoir à les répliquer. Les destinataires des données n'ont pas besoin d'utiliser la plateforme Databricks, ni le même cloud, voire de n'être tout simplement pas dans le cloud ! En savoir plus →

Delta Lake sur Databricks vous permet de créer une  architecture lakehouse regroupant les principaux avantages des data lakes et des data warehouses. Cette plateforme simple et ouverte stocke et gère vos données tout en prenant en charge vos cas d'usage d'analytique et d'IA. Dans cette démo, nous vous expliquons les fonctionnalités de Delta Lake, notamment le traitement unifié des données batch et streaming, l'évolution et l'application de schémas, la fonction « Time Travel » (versioning) et la prise en charge des commandes UPDATE, MERGE et DELETE. Par ailleurs, la démo met en avant certaines améliorations de performance disponibles avec Delta Lake sur Databricks. En savoir plus →

Dans cette démonstration, nous vous présentons un cas d'usage concret de machine learning et de data science sur Databricks afin de montrer comment les différents membres de l'équipe data peuvent interagir et collaborer sur la plateforme Databricks. Par ailleurs, vous découvrirez comment MLflow on Databricks simplifie et rationalise le cycle de vie de machine learning de bout en bout. En savoir plus →

Dans cette démo, nous vous offrons un premier aperçu de Delta Live Tables, un service cloud qui facilite la mise en place de capacités ETL (extraction, transformation et chargement) fiables sur Delta Lake. Il permet aux équipes de data engineering de simplifier le développement ETL grâce à une interface utilisateur simple et à des outils déclaratifs, d'améliorer la fiabilité des données grâce à des règles définies de qualité des données et au monitoring des données erronées, mais aussi d'étendre les opérations grâce à une visibilité approfondie via un journal des événements. En savoir plus →

Avec Databricks Auto Loader, vous pouvez ingérer progressivement et efficacement de nouveaux fichiers de données batch et streaming en temps réel dans vos tables Delta Lake dès leur arrivée. Ainsi, ils contiennent toujours les données disponibles les plus complètes et les plus récentes. Les utilisateurs de SQL n'ont qu'à utiliser la commande « COPY INTO » pour intégrer automatiquement de nouvelles données dans leurs tables Delta Lake. Pas besoin d'effectuer un suivi des fichiers déjà traités. En savoir plus →

Démo Partenaires

La plateforme Lakehouse d'Azure Databricks vous offre le meilleur des data lakes et des data warehouses sur une plateforme simple, ouverte et collaborative qui s'intègre en toute sécurité à vos services Azure existants. Dans cette démo, vous verrez les intégrations d'Azure Databricks les plus courantes, telles que Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure IoT Hub, Azure Synapse Analytics, ou encore Power BI. En savoir plus →

Databricks fonctionne sur AWS et s'intègre à tous les principaux services que vous utilisez, comme S3, EC2, Redshift, etc. Nous fournissons la plateforme vous permettant de regrouper tous ces services afin de créer une architecture lakehouse. Dans cette démo, nous vous montrons comment Databricks s'intègre à tous ces services de manière simple et transparente. En savoir plus →

Intégration Databricks sur Google Cloud – Promotion

Databricks sur Google Cloud est un service mis au point conjointement qui vous permet de stocker toutes vos données sur une plateforme lakehouse simple et ouverte combinant le meilleur des data warehouses et des data lakes. Unifiez toutes vos charges de travail d'analytique et d'IA sur une plateforme unique. L'intégration étroite avec Google Cloud Storage, BigQuery et Google Cloud AI Platform permet à Databricks de fonctionner en toute transparence sur les services de data et d'IA sur Google Cloud.

Découvrez facilement des outils validés de données, d'analytique et d'IA directement au sein de la plateforme Databricks et intégrez rapidement les outils que vous utilisez déjà actuellement. Avec Partner Connect, vous pouvez simplifier l'intégration des outils en quelques clics et étendre rapidement les capacités de votre lakehouse. En savoir plus →





La plateforme Lakehouse d'Azure Databricks vous offre le meilleur des data lakes et des data warehouses sur une plateforme simple, ouverte et collaborative qui s'intègre en toute sécurité à vos services Azure existants. Dans cette démo, vous verrez les intégrations d'Azure Databricks les plus courantes, telles que Azure Data Lake Storage (ADLS), Azure Data Factory (ADF), Azure IoT Hub, Azure Synapse Analytics, ou encore Power BI. En savoir plus →

Databricks fonctionne sur AWS et s'intègre à tous les principaux services que vous utilisez, comme S3, EC2, Redshift, etc. Nous fournissons la plateforme vous permettant de regrouper tous ces services afin de créer une architecture lakehouse. Dans cette démo, nous vous montrons comment Databricks s'intègre à tous ces services de manière simple et transparente. En savoir plus →

Intégration Databricks sur Google Cloud – Promotion

Databricks sur Google Cloud est un service mis au point conjointement qui vous permet de stocker toutes vos données sur une plateforme lakehouse simple et ouverte combinant le meilleur des data warehouses et des data lakes. Unifiez toutes vos charges de travail d'analytique et d'IA sur une plateforme unique. L'intégration étroite avec Google Cloud Storage, BigQuery et Google Cloud AI Platform permet à Databricks de fonctionner en toute transparence sur les services de data et d'IA sur Google Cloud.

Découvrez facilement des outils validés de données, d'analytique et d'IA directement au sein de la plateforme Databricks et intégrez rapidement les outils que vous utilisez déjà actuellement. Avec Partner Connect, vous pouvez simplifier l'intégration des outils en quelques clics et étendre rapidement les capacités de votre lakehouse. En savoir plus →

Solutions pour l'industrie

Solutions pour l'industrie

De l’idée à la preuve de concept (PoC) en deux semaines seulement

Les accélérateurs de solutions Databricks sont des guides spécialisés conçus pour accélérer les résultats à l'aide de notebooks entièrement fonctionnels et de bonnes pratiques. Les clients Databricks gagnent du temps dans leurs opérations de découverte, de conception, de développement et de test. Beaucoup d'entre eux passent de l'idée à la preuve de concept (PoC) en deux semaines seulement.

Explorez les Accélérateurs

Essayez gratuitement Databricks pendant 14 jours

En cliquant sur « Essayer gratuitement », vous acceptez la Politique de confidentialité et les Conditions de service