Alors que les entreprises passent de l'expérimentation de l'IA générative au déploiement de systèmes agentiques en production, la conversation évolue. La question que se posent les dirigeants n'est plus « Ce modèle peut-il raisonner ? », mais « Peut-on faire confiance à ce système ? ».
Pour explorer ce que ce changement signifie réellement, je me suis entretenu avec Maria Zervou, directrice de l'IA pour la région EMEA chez Databricks. Maria travaille en étroite collaboration avec des clients issus de Secteurs d'activité réglementés et en évolution rapide et passe son temps à l'intersection de l'architecture de l'IA, de la gouvernance et de l'exécution dans le monde réel.
Tout au long de la conversation, Maria n'a cessé de revenir sur le même point : le succès avec l'IA agentique n'est pas une question de modèle. C'est une question de systèmes qui l'entourent : les données, la discipline d'ingénierie et une responsabilité claire.
Catherine Brown : De nombreux dirigeants avec qui je m'entretiens assimilent encore la qualité de l'IA à la performance apparente du modèle. Vous avez soutenu que c'est une mauvaise approche. Pourquoi ?
Maria Zervou : Le plus grand malentendu que je constate, c'est que les gens confondent l'intelligence d'un modèle ou sa capacité de raisonnement perçue avec la qualité. Ce n'est pas la même chose.
La qualité, en particulier dans les systèmes agentiques, est une question de fiabilité cumulée. Vous n'évaluez plus une seule réponse. Vous évaluez un système qui peut effectuer des centaines d'étapes : récupérer des données, faire appel à des outils, prendre des décisions, remonter les problèmes. Même les petites erreurs peuvent s'accumuler de manière imprévisible.
Les questions changent donc. L'agent a-t-il utilisé les bonnes données ? A-t-il trouvé les bonnes ressources ? Savait-il quand s'arrêter ou faire remonter l'information ? C'est là que réside vraiment la qualité.
Et surtout, la qualité revêt différentes significations pour les différentes parties prenantes. Les équipes techniques se concentrent souvent sur des KPI comme le coût, la latence ou le débit. Les utilisateurs finaux se soucient de la conformité à l'image de marque, du ton et des contraintes juridiques. Ainsi, si ces perspectives ne sont pas alignées, on finit par optimiser la mauvaise chose.
Catherine : C'est intéressant, d'autant plus que de nombreux dirigeants supposent que les systèmes d'IA doivent être « parfaits » pour être utilisables, en particulier dans les environnements réglementés. Comment les entreprises des secteurs d'activité hautement réglementés devraient-elles aborder les initiatives d'IA ?
Maria : dans les secteurs très réglementés, une très grande précision est nécessaire, mais la première référence doit être la performance humaine. Aujourd'hui, les humains font constamment des erreurs. Si vous n'ancrez pas les attentes dans la réalité, vous n'avancerez jamais.
Ce qui compte le plus, c'est la traçabilité et la responsabilité. En cas de problème, pouvez-vous retracer pourquoi une décision a été prise ? Qui est responsable du résultat ? Quelles données ont été utilisées ? Si vous ne pouvez pas répondre à ces questions, le système n'est pas prêt pour la production, même si le résultat semble impressionnant.
Catherine : Vous parlez beaucoup des agents spécifiques à un domaine par rapport aux modèles généralistes. Comment les dirigeants devraient-ils aborder cette distinction ?
Maria : Un modèle généraliste est essentiellement un moteur de raisonnement très performant, entraîné sur des datasets très vastes et diversifiés. Mais il ne comprend pas votre activité. Un agent spécialisé utilise les mêmes modèles de base, mais il devient plus puissant grâce au contexte. On le contraint à un cas d'usage prédéfini. On limite l'espace qu'il peut explorer. On lui apprend ce que signifient vos KPI, ce que signifie votre terminologie et les actions qu'il est autorisé à entreprendre.
Cette contrainte est en fait ce qui le rend meilleur. En restreignant le domaine, on réduit les hallucinations et on augmente la fiabilité des résultats. La majeure partie de la valeur ne provient pas du modèle lui-même. Elle provient des données propriétaires auxquelles il peut accéder en toute sécurité, de la couche sémantique qui définit le sens et des outils qu'il est autorisé à utiliser. Essentiellement, il peut raisonner à partir de vos données. C'est là que réside l'avantage concurrentiel.
Catherine : Où voyez-vous généralement les workflows d'agents d'IA échouer lorsque les organisations tentent de passer du prototype à la production ?
Maria : Il existe trois principaux points de défaillance. Le premier est le décalage de rythme. La technologie évolue plus vite que la plupart des organisations. Les équipes se lancent dans la création d'agents avant d'avoir effectué le travail de base sur l'accès aux données, la sécurité et la structure.
Le deuxième point concerne les connaissances tacites. Une grande partie de ce qui rend les employés efficaces se trouve dans la tête des gens ou dans des documents éparpillés. Si ces connaissances ne sont pas codifiées sous une forme qu'un agent peut utiliser, le système ne se comportera jamais comme l'entreprise s'y attend.
Le troisième est l'infrastructure. De nombreuses équipes ne planifient pas la montée en charge ou l'utilisation en conditions réelles. Elles construisent quelque chose qui fonctionne une fois, dans une démo, mais qui s'effondre sous la charge de production.
Ces trois problèmes ont tendance à apparaître ensemble.
Catherine : Vous avez déjà dit que la capture des connaissances métier est aussi importante que le choix du bon modèle. Comment voyez-vous les organisations bien s'y prendre ?
Maria : Cela startent par reconnaître que les systèmes d'IA ne sont pas des projets ponctuels. Ce sont des systèmes vivants. Une approche pratique consiste à enregistrer et à transcrire les réunions et à traiter cela comme de la matière première. Vous structurez, résumez et étiquetez ensuite ces informations afin que le système puisse les récupérer plus tard. Au fil du temps, vous constituez une base de connaissances qui reflète la façon dont l'entreprise pense réellement.
La manière dont vous concevez les évaluations est tout aussi importante. Les premières versions d'un agent doivent être utilisées par les parties prenantes de l'entreprise, et pas seulement par les ingénieurs. Leurs retours (ce qui semble correct, ce qui ne l'est pas, pourquoi quelque chose ne va pas) deviennent des données d'entraînement.
La création d'un système d'évaluation efficace, adapté à l'objectif spécifique de cet agent, est essentielle pour garantir des résultats de haute qualité, ce qui est en fin de compte essentiel pour tout projet d'IA en production. Nos propres données d'utilisation montrent que les clients qui utilisent des outils d'évaluation de l'IA mettent près de 6 fois plus de projets d'IA en production que ceux qui n'en utilisent pas.
En effet, vous codifiez le cerveau de l'entreprise en critères d'évaluation.
Catherine : Cela semble coûteux et chronophage. Comment conciliez-vous rigueur et rapidité ?
Maria : C'est là que je parle de gouvernance minimale viable. On ne résout pas la gouvernance pour l'ensemble de l'entreprise dès le premier jour. On la résout pour le domaine et le cas d'utilisation spécifiques sur lesquels on travaille. On s'assure que les données sont contrôlées, traçables et auditables pour cet agent. Ensuite, à mesure que le système s'avère utile, on l'étend.
Ce qui aide, c'est d'avoir des blocs de construction reproductibles — des modèles qui encodent déjà de bonnes pratiques de Data Engineering et de gouvernance. C'est la philosophie qui sous-tend des approches comme Agent Bricks, où les équipes peuvent partir de bases affinées au lieu de réinventer à chaque fois les workflows, les évaluations et les contr ôles à partir de zéro.
Les dirigeants doivent tout de même insister d'emblée sur quelques points non négociables : des KPI commerciaux clairs, un sponsor exécutif désigné, des évaluations réalisées avec les utilisateurs professionnels et de solides bases en ingénierie logicielle. Le premier projet sera difficile, mais il établit le modèle pour tout ce qui suit et rend les agents suivants beaucoup plus rapides à déployer.
Si vous sautez cette étape, vous vous retrouvez avec ce que j'appelle le « demo wear » : des prototypes impressionnants qui ne se concrétisent jamais tout à fait.
Catherine : Pouvez-vous donner des exemples où les agents ont matériellement changé la façon dont le travail est effectué ?
Maria : En interne chez Databricks, nous l'avons constaté à plusieurs reprises. Au sein des services professionnels, les agents sont utilisés pour analyser les environnements des clients lors des migrations. Au lieu que les ingénieurs examinent manuellement chaque schéma et système, l'agent génère des workflows recommandés basés sur les meilleures pratiques. Cela réduit considérablement le temps consacré à l'analyse répétitive.
En ingénierie de terrain, les agents génèrent automatiquement des environnements de démonstration adaptés au secteur et au cas d'utilisation d'un client. Ce qui nécessitait auparavant des heures de préparation manuelle se fait maintenant beaucoup plus rapidement et avec une plus grande cohérence.
Dans les deux cas, l'agent n'a pas remplacé l'expertise, il l'a amplifiée.
Catherine : Si vous deviez résumer cela pour un DSI ou un CDO qui débute dans ce domaine, sur quoi devraient-ils se concentrer en premier ?
Maria : Commencez par les données. Les agents de confiance nécessitent une base de données unifiée, contrôlable et vérifiable. Si vos données sont fragmentées ou inaccessibles, l'agent échouera, quelle que soit la qualité du modèle. Deuxièmement, soyez clair sur la propriété. Qui est responsable de la qualité ? À qui appartiennent les résultats ? Qui décide quand l'agent est « suffisamment bon » ? Et enfin, n'oubliez pas que l'IA agentique ne consiste pas à montrer à quel point le système est intelligent. Il s'agit de savoir si le système aide l'entreprise de manière fiable à prendre de meilleures décisions, plus rapidement, sans introduire de nouveaux risques.
Réflexions finales
L'IA agentique représente un véritable changement : des outils qui assistent les humains à des systèmes qui agissent en leur nom. Mais comme l'explique clairement Maria, le succès dépend beaucoup moins de la sophistication du modèle que de la discipline : en matière de données, de gouvernance et de Data Engineering.
Pour les dirigeants, le défi n'est pas de savoir si les agents vont arriver. Il s'agit plutôt de savoir si leurs organisations sont prêtes à construire des systèmes dignes de confiance une fois qu'ils seront là.
Pour en savoir plus sur la création d'un modèle opérationnel efficace, téléchargez le Databricks AI Maturity Model.
(Cet article de blog a été traduit à l'aide d'outils basés sur l'intelligence artificielle) Article original
Líder de dados
February 2, 2026/5 min de leitura
Estratégia de dados
February 3, 2026/13 min de leitura


