HomepageData + AI World Tour 2022 Logo
Choisir ma ville

Mardi 8 novembre 2022

En route vers le Lakehouse

Paris | 9h00 - 16h00

Maison de la Mutualité,

24 Rue Saint-Victor, 75005 Paris

Watch On-demand

Data + AI World Tour Paris

Le Lakehouse s'impose rapidement comme la nouvelle norme en matière d'architecture de données, mais chaque région a ses propres histoires et ses propres  challenges.

Rejoignez-nous pour cette conférence en présentiel à Paris, entièrement conçue pour vous apporter des pistes de réflexion à vos problématiques data les plus complexes. 

Les keynotes et ateliers techniques seront présentés par David Meyer, ainsi que par nos équipes globales et locales d'experts Data & IA et nos clients de Databricks France.

 

Watch on-demand

Conférenciers

Headshot of David Meyer

David Meyer

SVP, Product

Databricks

Headshot of Pierre Haddad

Pierre Haddad

Manager, Field Engineering

Databricks

Headshot of Michael Harlaut

Michael Harlaut

Manager, Field Engineering

Databricks

Headshot of Anastasia Prokaieva

Anastasia Prokaieva

Senior Specialist Solutions Engineer

Databricks

Headshot of Cédric Kassi

Cédric Kassi

Responsable Socles Big Data, Analytics & Machine Learning

AXA France

Headshot of Achraf HAMID

Achraf HAMID

Data scientist

Digital Native Corner

Headshot of Frédérique  Martin Sainte-Agathe

Frédérique Martin Sainte-Agathe

Sr Manager Customer Success

Databricks

Headshot of Gautier Loveiko

Gautier Loveiko

Lead Data Scientist

Digital Native Corner

Headshot of Léon Stefani

Léon Stefani

Lead Data Engineer

Digital Native Corner

Headshot of Florian Aubry

Florian Aubry

CTO & Co-founder

Digital Native Corner

Headshot of Axel Richier

Axel Richier

Manager, Data engineering

Digital Native Corner

Headshot of Amine Majdoubi

Amine Majdoubi

CTO

Digital Native Corner

Agenda

8h00

8h00-9h00
Accueil des participants et petit-déjeuner
See Details

9h00

Keynote
9h00-10h45
Keynote : En route vers le Lakehouse

Les mondes des données, de l'analytique et de l'IA étant de plus en plus interconnectés, le besoin d'une plateforme permettant d'unifier les sources de données, les cas d'usages et les workloads se fait de plus en plus sentir. Le data lakehouse supprime les barrières qui séparent les business analysts des data scientists, les données structurées du streaming en temps réel et la business intelligence de l'IA. Ce discours d'ouverture explore comment l'approche simple, ouverte et multicloud du Lakehouse simplifie la gestion des données, unifie les équipes data et permet de produire davantage d'initiatives.

Au travers d'une démonstration, cette keynote montrera clairement comment les principaux workloads de data engineering, de data warehouse, de data science et d'auto ML sont orchestrés dans l'architecture de la plateforme Lakehouse de Databricks.

  • Le Lakehouse pour casser les silos de données et de gouvernance
  • Data Engineering sur le Lakehouse
  • Data Warehousing sur le Lakehouse
  • Machine Learning sur le Lakehouse
  • En marche vers une data architecture Lakehouse de AXA France
Headshot of David Meyer
David Meyer
Databricks
Headshot of Pierre Haddad
Pierre Haddad
Databricks
Headshot of Michael Harlaut
Michael Harlaut
Databricks
Headshot of Anastasia Prokaieva
Anastasia Prokaieva
Databricks
Headshot of Benoit Vidal
Benoit Vidal
Databricks
Headshot of Cédric Kassi
Cédric Kassi
AXA France

11h15

ATELIER
11h15-12h00
En route vers le Lakehouse : toutes vos données, votre analytique et votre IA sur une seule plateforme

Le data lakehouse représente l'avenir pour les équipes data modernes qui cherchent à innover avec une architecture qui simplifie les workloads de données, facilite la collaboration et conserve la flexibilité et l'ouverture pour rester agile à mesure que l'entreprise évolue. La plateforme Lakehouse de Databricks concrétise cette idée en unifiant les workloads d'analytique, de data engineering, de machine learning  et de streaming de données au travers des différents clouds,  sur une seule plateforme de données simple et ouverte. Dans cette session, découvrez comment la plateforme Lakehouse de Databricks peut répondre à vos besoins avec des exemples réels d'applications de clients, des architectures de référence et des démonstrations pour montrer comment vous pouvez créer vos propres solutions de données modernes.

Headshot of Ayoub Benzouine
Ayoub Benzouine
Headshot of Youness Habiballah
Youness Habiballah
Databricks
ATELIER
11h15-12h00
Data Warehouse sur le Lakehouse

La plupart des entreprises exploitent couramment leurs activités avec des architectures de données complexes sur le cloud qui cloisonnent les applications, les utilisateurs et les données. En conséquence, il n'existe pas de source unique de vérité des données pour l'analytique, et la plupart des analyses sont effectuées avec des données périmées. Pour résoudre ces défis, le lakehouse a émergé comme la nouvelle norme pour l'architecture de données, avec la promesse d'unifier les données, l'IA et les workloads analytiques en un seul endroit. Dans cette session, nous allons expliquer pourquoi le lakehouse est le prochain meilleur data warehouse. Nos experts partageront des histoires de réussite, des cas d'usages et les meilleures pratiques apprises sur le terrain. Découvrez comment le data lakehouse ingère, stocke et gouverne les données critiques à l'échelle pour ainsi construire un data lake curatif pour les workloads de datawarehouse, de SQL et de BI. Vous apprendrez également comment Databricks SQL peut vous aider à réduire vos coûts et à démarrer en quelques secondes grâce à un calcul serverless SQL instantané et élastique. Nous vous montrerons aussi comment chaque ingénieur analytique et chaque analyste peut ainsi trouver et partager rapidement de nouvelles informations à l'aide de ses outils de BI et SQL préférés, tels que Fivetran, dbt, Tableau ou Power BI.

Headshot of Michael Harlaut
Michael Harlaut
Databricks
Headshot of Laurent Léturgez
Laurent Léturgez
Databricks
ATELIER
11h15-12h00
Machine Learning sur le Lakehouse : réunir les données et le ML pour accélérer les cas d'usages de l'IA

Découvrez les dernières innovations de Databricks qui peuvent vous aider à construire et à rendre opérationnelle la prochaine génération de solutions de machine learning. Cette session se penchera sur Databricks Machine Learning, une plateforme d'IA centrée sur les données qui couvre l'ensemble du cycle de vie du machine learning - de l'ingestion des données et de la formation des modèles aux MLOps de production. Vous découvrirez les principales fonctionnalités que vous pouvez exploiter dans vos cas d'usages et verrez le produit en action. Vous entendrez aussi directement comment Databricks ML est utilisé pour maximiser la logistique de la chaîne d'approvisionnement et maintenir des millions de produits Coca-Cola en rayon.

Headshot of Anastasia Prokaieva
Anastasia Prokaieva
Databricks
FORMATION
11h15-15h45
Formation : Présentation de Databricks Lakehouse

Participez à cette session pour découvrir comment la plateforme Lakehouse de Databricks peut vous aider à être compétitif dans le monde du big data et de l'intelligence artificielle. Nous vous présenterons les concepts fondamentaux du big data et nous vous expliquerons les rôles et les compétences clés à rechercher lors de la constitution d'équipes data. Nous examinerons également comment la plateforme Lakehouse de Databricks peut aider votre organisation à rationaliser les workflows, à éliminer les silos et à tirer le meilleur parti de vos données.

Headshot of Youssef Mrini
Youssef Mrini
Databricks
Headshot of Amar Kadamalakunte
Amar Kadamalakunte
Databricks

12h00

12h00-13h00
Déjeuner

13h10

ATELIER
13h10-13h55
Delta Live Tables : ingénierie et gestion modernes des logiciels pour l'ETL

Les data engineers ont la tâche difficile de nettoyer des données complexes et variées et de les transformer en une source utilisable pour piloter l'analyse de données, la data science et le machine learning. Ils doivent connaître en profondeur la plateforme d'infrastructure de données, construire des requêtes complexes dans différents langages et les assembler pour la production. Participez à cette session pour découvrir comment Delta Live Tables (DLT) simplifie la complexité de la transformation des données et de l'ETL. DLT est le premier framework ETL à utiliser des pratiques modernes d'ingénierie logicielle pour fournir des pipelines de données fiables et sûrs à n'importe quelle échelle. Découvrez comment les analystes et les data engineers peuvent innover rapidement grâce à un développement et une maintenance simples des pipelines et comment supprimer la complexité opérationnelle en automatisant les tâches administratives et en obtenant une visibilité sur les opérations des pipelines. Nous vous montrerons également comment les contrôles de qualité et la surveillance intégrés garantissent la précision de la BI, de la data science et du ML. Enfin, découvrez comment le batch et le streaming simplifiés peuvent être mis en œuvre avec des pipelines de données auto-optimisants et auto-scaling.

Headshot of Mathilde Gaudefroy
Mathilde Gaudefroy
Databricks
Headshot of Artem Sheiko
Artem Sheiko
Databricks
ATELIER
13h10-13h55
Vitesse radicale du Lakehouse : Photon sous le capot

De nombreuses organisations se standardisent sur le lakehouse. Cependant, cette nouvelle architecture pose des challenges autour du moteur d'exécution de requêtes sous-jacent pour accéder aux données structurées et non structurées. Le moteur d'exécution doit offrir les performances d'un datawarehouse et la scalabilité des data lakes. Pour garantir des performances optimales, la plateforme Lakehouse de Databricks propose Photon. Ce moteur d'exécution de requêtes vectorielles de nouvelle génération surpasse les datawarehouse existants dans les workloads SQL et met en œuvre un cadre d'exécution plus général pour un traitement efficace des données avec la prise en charge de l'API Apache Spark™. Avec Photon, les requêtes analytiques voient leur vitesse augmenter de 3 à 5 fois, avec une réduction de 40 % des heures de calcul pour les workloads ETL. Dans cette session, nous allons plonger dans Photon, décrire son intégration avec la plateforme Databricks et les runtimes Apache Spark™, parler des cas d'usages de clients et montrer comment vos workloads SQL et DataFrame peuvent bénéficier des performances de Photon.

Headshot of Matthieu Lamairesse
Matthieu Lamairesse
Databricks
Headshot of Laurent Léturgez
Laurent Léturgez
Databricks
ATELIER
13h10-13h55
MLOps sur Databricks : unifier DataOps, ModelsOps et DevOps sur une seule plateforme

À mesure que les entreprises déploient le ML de manière systématique, les préoccupations opérationnelles deviennent la principale source de complexité. Les opérations de machine learning (MLOps) sont apparues comme une pratique permettant de gérer cette complexité.  Chez Databricks, nous voyons directement comment les clients développent leurs approches MLOps dans une grande variété d'équipes et d'entreprises.

Dans cette session, nous allons partager comment Databricks résout ce problème de manière unique en unifiant les aspects clés de MLOps, à savoir DataOps, ModelsOps et DevOps, sur une plateforme unifiée au travers du Lakehouse, permettant une production ML plus rapide et plus fiable. Nous montrerons comment votre organisation peut mettre en place de solides pratiques MLOps de manière incrémentale. Nous exposerons les principes généraux qui peuvent guider les décisions de votre organisation en matière de MLOps, en présentant les architectures cibles les plus courantes que nous observons chez nos clients.

Headshot of Anastasia Prokaieva
Anastasia Prokaieva
Databricks

14h05

ATELIER
14h05-14h50
Data Streaming sur le Lakehouse

Le streaming est l'avenir de tous les pipelines de données et de toutes les applications. Il permet aux entreprises de prendre plus rapidement des décisions data-driven et de réagir plus vite, de développer des applications data-driven considérées auparavant comme impossibles, et de proposer des expériences nouvelles et différenciées aux clients. Cependant, de nombreuses entreprises n'ont pas exploité tout le potentiel du streaming, car il les oblige à redévelopper entièrement leurs pipelines de données et leurs applications sur des stacks technologiques nouvelles, complexes, propriétaires et dissociée.

Headshot of Tarak Chaari
Tarak Chaari
Databricks
ATELIER
14h05-14h50
L'orchestration rendue facile avec les Databricks Workflows

L'orchestration et la gestion des pipelines de production de bout-en-bout constituent un goulot d'étranglement pour de nombreuses organisations. Les équipes data passent trop de temps à assembler les tâches du pipeline et à gérer et surveiller manuellement le processus d'orchestration - en s'appuyant fortement sur des solutions d'orchestration externes ou spécifiques au cloud, qui ralentissent la livraison de nouvelles données. Dans cette session, nous vous présentons Databricks Workflows : un service d'orchestration entièrement géré pour toutes vos données, analyses et IA, construit dans la plateforme Lakehouse de Databricks. Rejoignez-nous pour plonger en profondeur dans les nouvelles fonctionnalités de workflow et comprendre l'intégration avec la plateforme sous-jacente. Vous apprendrez à créer et à exécuter des workflows de production fiables, à gérer et à surveiller ces workflows de manière centralisée et à mettre en œuvre des actions de récupération telles que la réparation et l'exécution, ainsi que d'autres nouvelles fonctionnalités.

Headshot of Tarik Boukherissa
Tarik Boukherissa
ATELIER
14h05-14h50
Echanges avec AXA France autour de leur data architecture Lakehouse
Headshot of Robin Cunchillos
Robin Cunchillos
AXA France

15h00

ATELIER
15h00-15h45
Simplifier les migrations vers Lakehouse - la méthode Databricks

Les clients du monde entier connaissent un succès considérable en migrant des anciennes architectures Hadoop on-premise vers le Lakehouse de Databricks, une plateforme moderne dans le cloud. Chez Databricks, nous avons mis au point une méthodologie de migration qui aide les clients à franchir aisément le cap de la migration. Au cours de cette présentation, nous aborderons certains des éléments clés qui minimisent les risques et simplifient le processus de migration vers Databricks, et nous présenterons quelques parcours et cas d'usages de clients.

Headshot of Laurent Léturgez
Laurent Léturgez
Databricks
Headshot of Florent Brosse
Florent Brosse
Databricks
ATELIER
15h00-15h45
Unity Catalog : une gouvernance unifiée pour tous les produits data et IA de votre Lakehouse

Les assets de données modernes prennent de nombreuses formes : pas seulement des fichiers ou des tableaux, mais aussi des tableaux de bord, des modèles ML et des données non structurées comme des vidéos et des images, qui ne peuvent pas tous être régis et gérés par les solutions de gouvernance de données traditionnelles. Participez à cette session pour découvrir comment les équipes data peuvent utiliser Unity Catalog pour gérer de manière centralisée toutes les données et les actifs d'IA avec un modèle de gouvernance commun basé sur le connu SQL ANSI, garantissant des performances natives et une sécurité bien meilleures. Le lignage automatisé et intégré des données offre une visibilité de bout en bout sur la façon dont les données circulent de la source à la consommation, afin que les organisations puissent identifier et diagnostiquer l'impact des changements de données. Unity Catalog offre la flexibilité nécessaire pour exploiter les catalogues de données et les solutions existantes et établir une gouvernance centralisée à l'épreuve du temps, sans coûts de migration élevés. Il crée également des rapports d'audit détaillés pour la conformité et la sécurité des données, tout en garantissant que les équipes chargées des données peuvent rapidement découvrir et référencer les données pour les charges de travail de BI, d'analyse et de ML, accélérant ainsi le temps de valorisation.

Headshot of Julien Theulier
Julien Theulier
Databricks
Headshot of Yassine Essawabi
Yassine Essawabi
Databricks
ATELIER
15h00-15h45
Deep Dive: comment construire votre Modern Data Stack sur Databricks pour résoudre les problèmes modernes

Tout le monde veut réduire le temps nécessaire pour transformer les données en informations exploitables. Cela implique souvent l'intégration de plusieurs outils de données dans ce que l'on appelle la Modern Data Stack (MDS). Mais la plupart des approches ne se sont concentrées que sur la moitié du problème en enracinant le MDS dans le data warehouse. Une véritable MDS devrait résoudre tous les problèmes modernes en s'attaquant à l'IA et au streaming en plus du reporting et de la BI. Dans cette démonstration, nous vous montrons à quel point il est facile d'intégrer la plateforme Lakehouse de Databricks dans votre Modern Data Stack pour connecter tous vos outils de données à travers SQL, AI/ML et streaming, et découvrir de nouvelles méthodes pour débloquer des insights plus rapidement.

Headshot of Christophe Anglade
Christophe Anglade
Databricks
Headshot of Clement Lacoudre
Clement Lacoudre
Databricks

16h00

16h00-18h00
Cocktail & networking

Proudly Sponsored By