Revenir au contenu principal

Data Analysis with Databricks - French

SQL Analytics on Databricks
Dans ce cours, vous apprendrez à utiliser efficacement Databricks pour l’analyse de données, en mettant l’accent sur Databricks SQL. En tant qu’analyste de données Databricks, vos responsabilités comprendront la recherche de données pertinentes, l’analyse des données pour des applications potentielles et la transformation des données en formats qui fournissent des insights commerciaux précieux. 
Vous comprendrez également votre rôle dans la gestion des objets de données et comment les manipuler au sein du Databricks Data Intelligence Platform, à l’aide d’outils tels que Notebooks, l’éditeur SQL et Databricks SQL. 
De plus, vous découvrirez l’importance de Unity Catalog dans la gestion des actifs de données et de la plateforme globale. Enfin, le cours fournira un aperçu de la façon dont Databricks facilite l’optimisation des performances et vous apprendra comment accéder à Query Insights pour comprendre les processus qui se déroulent en coulisse lors de l’exécution de l’analyse SQL sur Databricks.

AI/BI for Data Analysts
Dans ce cours, vous apprendrez à utiliser les fonctionnalités que Databricks fournit pour les besoins de veille économique : Tableaux de bord AI/BI et AI/BI Genie. En tant qu'analyste de données Databricks, vous serez chargé de créer des tableaux de bord AI/BI et des espaces génie AI/BI au sein de la plateforme, de gérer l'accès à ces actifs par les parties prenantes et les parties nécessaires, et de maintenir ces actifs au fur et à mesure de leur modification, de leur actualisation ou de leur mise hors service au cours de leur durée de vie. Ce cours vise à enseigner aux participants comment concevoir des tableaux de bord pour obtenir des insights, les partager avec les collaborateurs et les parties prenantes et maintenir ces actifs au sein de la plateforme. Les participants apprendront également à utiliser AI/BI Genie Spaces pour prendre en charge l'analyse en libre-service grâce à la création et à la maintenance de ces environnements optimisés par le moteur d'intelligence des données Databricks.


Languages Available: English | 日本語 | Português BR | 한국어

Skill Level
Associate
Duration
8h
Prerequisites

Ce contenu a été conçu pour les participants possédant les compétences, connaissances et aptitudes suivantes : 


• Une connaissance pratique de l'utilisation du langage SQL à des fins d'analyse de données. 

• Une bonne connaissance des processus de création, de stockage et de gestion des données.

• Une compréhension de base de l'analyse statistique.

• Une compréhension de la structure et des caractéristiques distinctives de formats de données spécifiques tels que CSV, JSON, TXT et Parquet.

• Une bonne connaissance de l'interface utilisateur de la plateforme Databricks Data Intelligence.

• Une compréhension de base du langage SQL pour interroger les tables de données existantes dans Databricks.

• Une expérience préalable ou une connaissance de base de l'interface utilisateur de Databricks Workspace.

• Une compréhension de base de l'objectif et de l'utilisation des résultats d'analyses statistiques.

• Une bonne connaissance des concepts liés aux tableaux de bord utilisés pour la veille économique

Outline

Analyses SQL sur Databricks


Exploration des données

• Utilisation de Unity Catalog comme outil d'exploration des données

• Comprendre la propriété des objets de données

• Utiliser Unity Catalog pour localiser et inspecter des ensembles de données


Importation de données

• Ingestion de données dans Databricks

• Téléchargement de données vers Databricks via l'interface utilisateur

• Exploration programmatique et ingestion de données dans Unity Catalog

• Importer des données dans Databricks


Exécution SQL

• Databricks SQL et les entrepôts de données Databricks SQL

• L'éditeur SQL unifié

• Manipuler et transformer les données avec Databricks SQL

• Créer des vues avec Databricks SQL

• Manipuler et analyser une table


Analyse des requêtes

• Databricks Photon et l'optimisation dans Databricks

• Informations sur les requêtes

• Meilleures pratiques pour l'analyse SQL


IA/BI pour les analystes de données


Tableaux de bord et visualisations dans Databricks

• Tableaux de bord IA/BI

• Juste ce qu'il faut de SQL

• Conception d'ensembles de données pour les tableaux de bord

• Création de visualisations et ajout de statistiques récapitulatives aux tableaux de bord

• Fonctionnalités améliorées par l'IA

• Filtres

• Partage de tableaux de bord avec les parties prenantes et d'autres personnes

• Gestion des tableaux de bord en production

• Activité de laboratoire sur les tableaux de bord et la visualisation


AI/BI Genie

• AI/BI Genie

• Développement de Genie Spaces

• Partage de Genie Spaces

• Laboratoire d'activités de développement AI/BI Genie

Public Class Registration

If your company has purchased success credits or has a learning subscription, please fill out the Training Request form. Otherwise, you can register below.

Private Class Request

If your company is interested in private training, please submit a request.

See all our registration options

Registration options

Databricks has a delivery method for wherever you are on your learning journey

Runtime

Self-Paced

Custom-fit learning paths for data, analytics, and AI roles and career paths through on-demand videos

Inscrivez-vous maintenant

Instructors

Instructor-Led

Public and private courses taught by expert instructors across half-day to two-day courses

Inscrivez-vous maintenant

Learning

Blended Learning

Self-paced and weekly instructor-led sessions for every style of learner to optimize course completion and knowledge retention. Go to Subscriptions Catalog tab to purchase

Purchase now

Scale

Skills@Scale

Comprehensive training offering for large scale customers that includes learning elements for every style of learning. Inquire with your account executive for details

Upcoming Public Classes

Build Data Pipelines with Lakeflow Declarative Pipelines - French

Ce cours présente aux utilisateurs les concepts et compétences essentiels nécessaires pour créer des pipelines de données à l'aide de Lakeflow Spark Declarative Pipelines (SDP) dans Databricks pour l'ingestion et le traitement incrémentiels par lots ou en continu via plusieurs tables de streaming et vues matérialisées. Conçu pour les ingénieurs de données qui découvrent Spark Declarative Pipelines, ce cours offre un aperçu complet des composants essentiels tels que le traitement incrémentiel des données, les tables de streaming, les vues matérialisées et les vues temporaires, en soulignant leurs objectifs spécifiques et leurs différences.

Les thèmes abordés comprennent :

- Développement et débogage de pipelines ETL avec l'éditeur multi-fichiers dans Spark Declarative Pipelines à l'aide de SQL (avec exemples de code Python fournis)

- Comment les pipelines déclaratifs Spark suivent les dépendances des données dans un pipeline à travers le graphe du pipeline

- Configuration des ressources de calcul du pipeline, des actifs de données, des modes de déclenchement et d'autres options avancées

Ensuite, le cours présente les attentes en matière de qualité des données dans les pipelines déclaratifs Spark, guidant les utilisateurs tout au long du processus d'intégration des attentes dans les pipelines afin de valider et de garantir l'intégrité des données. Les apprenants découvriront ensuite comment mettre un pipeline en production, notamment les options de planification, et comment activer la journalisation des événements du pipeline afin de surveiller ses performances et son état de santé.

Enfin, le cours explique comment implémenter la capture des données modifiées (CDC) à l'aide de la syntaxe AUTO CDC INTO dans les pipelines déclaratifs Spark afin de gérer les dimensions à évolution lente (SCD de type 1 et de type 2), préparant ainsi les utilisateurs à intégrer la CDC dans leurs propres pipelines.

Paid
4h
Lab
instructor-led
Associate
Data Engineer

Data Ingestion with Lakeflow Connect - French

Ce cours fournit une introduction complète à Lakeflow Connect, une solution évolutive et simplifiée pour l’ingestion de données dans Databricks à partir d’un large éventail de sources. Vous commencerez par explorer les différents types de connecteurs Lakeflow Connect (Standard et Managed) et apprendrez diverses techniques d’ingestion de données, notamment l’ingestion par lots, par lots incrémentiels et en streaming. Vous passerez également en revue les principaux avantages de l’utilisation des tables Delta et de l’architecture Medallion.

Ensuite, vous développerez des compétences pratiques pour l’ingestion de données à partir du stockage d’objets dans le cloud à l’aide des connecteurs standard Lakeflow Connect. Cela comprend l’utilisation de méthodes telles que CREATE TABLE AS SELECT (CTAS), COPY INTO et Auto Loader, en mettant l’accent sur les avantages et les considérations de chaque approche. Vous apprendrez également à ajouter des colonnes de métadonnées à vos tables de niveau bronze lors de l’ingestion dans le Databricks Data Intelligence Platform. Le cours explique ensuite comment gérer les enregistrements qui ne correspondent pas à votre schéma de table à l’aide de la colonne de données récupérées, ainsi que des stratégies de gestion et d’analyse de ces données. Vous explorerez également les techniques d’ingestion et d’aplatissement des données JSON semi-structurées.

Ensuite, vous allez explorer comment effectuer une ingestion de données de niveau entreprise à l’aide des connecteurs gérés Lakeflow Connect pour importer des données à partir de bases de données et d’applications Software-as-a-Service (SaaS). Le cours présente également Partner Connect comme option pour intégrer des outils partenaires dans vos flux de travail d’ingestion.

Enfin, le cours se termine par des stratégies d’ingestion alternatives, notamment les opérations MERGE INTO et l’exploitation du Databricks Marketplace, vous dotant d’une base solide pour prendre en charge les cas d’utilisation modernes de l’ingénierie des données.

Paid
4h
Lab
instructor-led
Associate

Questions?

If you have any questions, please refer to our Frequently Asked Questions page.