Revenir au contenu principal

Sécurité & Trust Center

La sécurité de vos données est notre priorité.

 

 

Sécurité de l'IA

Bonnes pratiques pour atténuer les risques associés aux modèles d'IA

La sécurité de l'IA fait référence aux pratiques, mesures et stratégies mises en œuvre pour protéger les systèmes d'intelligence artificielle, les modèles et les données contre tout accès non autorisé, toute manipulation ou toute activité malveillante. Les organisations doivent mettre en œuvre des protocoles de sécurité robustes, des méthodes de chiffrement, des contrôles d'accès et des mécanismes de monitoring pour protéger les assets d'IA et atténuer les risques potentiels associés à leur utilisation. 

L'équipe de sécurité Databricks accompagne nos clients pour sécuriser le déploiement de l'IA et du machine learning sur Databricks, en recommandant des fonctionnalités adaptées aux exigences de leur architecture. Nous travaillons également avec des dizaines d'experts en interne chez Databricks et au sein de la Communauté plus large du ML et de l'IA générative pour identifier les risques de sécurité pour les systèmes d'IA et définir les contrôles nécessaires pour atténuer ces risques. 

Comprendre les systèmes d'IA

Quels sont les composants d'un système d'IA et comment fonctionnent-ils ensemble ?

Les systèmes d'IA se composent de données, de code et de modèles. Un système d'IA de bout en bout classique comporte 12 composants d'architecture fondamentaux, généralement classés en quatre grandes étapes :

  1. Les opérations sur les données incluent l'ingestion et la transformation des données, ainsi que la garantie de leur sécurité et de leur gouvernance. De bons modèles de ML dépendent de pipelines de données fiables et d'une infrastructure sécurisée.
  2. Les Opérations sur les modèles incluent la création de modèles personnalisés, l'acquisition de modèles sur une marketplace de modèles ou l'utilisation de grands modèles linguistiques (LLM) en mode software-as-a-service (SaaS), tels qu'OpenAI. Le développement d'un modèle nécessite une série d'expérimentations et un moyen de suivre et de comparer les conditions et les résultats de ces expérimentations.
  3. Le déploiement et le service des modèles consistent à créer des images de modèles de manière sécurisée, à isoler et à servir les modèles de manière sécurisée, à effectuer une mise à l'échelle automatisée, à limiter le débit et à effectuer le monitoring des modèles déployés.
  4. Les opérations et la plateforme incluent la gestion des vulnérabilités de la plateforme et l'application de correctifs, l'isolation des modèles et les contrôles du système, ainsi que l'accès autorisé aux modèles avec une sécurité intégrée à l'architecture. Il comprend également des outils opérationnels pour le CI/CD. Cela garantit que l'ensemble du cycle de vie répond aux normes requises en sécurisant les environnements d'exécution distincts (développement, préproduction et production) pour le MLOps.   

L'image ci-dessous met en évidence les 12 composants et la manière dont ils interagissent au sein d'un système d'IA.

ai system components and associated risks transparent

Comprendre les risques de sécurité de l'IA

Quelles sont les menaces de sécurité qui peuvent survenir lors de l'adoption de l'IA ?

Dans notre analyse des systèmes d'IA, nous avons identifié 62 risques de sécurité techniques parmi les 12 composants fondamentaux de l'architecture. Dans le tableau ci-dessous, nous présentons ces composants de base, qui correspondent aux étapes de tout système d'IA, et mettons en évidence quelques exemples de risques de sécurité. La liste complète des 62 risques de sécurité techniques est disponible dans le Databricks AI Security Framework.

Étape du système d'IA

Composants du système d'IA

Risques de sécurité potentiels

Opérations sur les données

1. Données brutes 

2. Préparation des données 

3. datasets

4. Catalogue et gouvernance

20 risques spécifiques tels que :

  • Contrôles d'accès insuffisants
  • Classification des données manquantes
  • Qualité médiocre des données
  • Absence de logs d'accès aux données
  • Empoisonnement des données

Opérations sur les modèles

5. Algorithme de ML

6. Évaluation

7. Construction du modèle

8. Gestion des modèles

15 risques spécifiques tels que :

  • Manque de suivi et de reproductibilité des expérimentations
  • drift du modèle
  • Vol d'hyperparamètres
  • Bibliothèques malveillantes
  • Empoisonnement des données d'évaluation

Déploiement et mise en service de modèles

9. Model Serving — requêtes d'inférence

10. Model Serving — réponses d'inférence

19 risques spécifiques tels que :

  • Injection de prompt
  • Inversion de modèle
  • Déni de service (DOS)
  • Hallucinations des LLM
  • Attaques de type boîte noire

Opérations et plateforme

11. Opérations ML 

12. Plateforme de ML

8 risques spécifiques tels que :

  • Absence de gestion des vulnérabilités
  • Absence de tests d'intrusion et de programme de bug bounty
  • Accès à privilèges non autorisé
  • Cycle de vie de développement de solution (SDLC) médiocre
  • Non-conformité

Quels contrôles sont disponibles pour atténuer les risques de sécurité de l'IA ?

Il existe 64 contrôles prescriptifs pour atténuer les 62 risques de sécurité de l'IA identifiés. Ces contrôles comprennent :

  • Meilleures pratiques en matière de cybersécurité, telles que le Single Sign On, les techniques de chiffrement, les contrôles de la bibliothèque et du code source et les contrôles d'accès au réseau avec une approche de défense en profondeur pour gérer les risques
  • Contrôles spécifiques à la gouvernance des données et de l'IA, tels que la classification des données, le data lineage, la gestion des versions des données, le suivi des modèles, les autorisations sur les data et model assets et la gouvernance des modèles
  • Des contrôles spécifiques à l'IA comme l'isolation du service de modèles, les outils de prompt, l'audit et le monitoring des modèles, le MLOps et le LLMOps, la gestion centralisée des LLM, l'affinement et le pré-entraînement de vos modèles

Si vous souhaitez obtenir une présentation approfondie des risques de sécurité associés aux systèmes d'IA et des contrôles à mettre en œuvre pour chaque risque, nous vous invitons à télécharger notre livre blanc sur la sécurité de Databricks AI.

Meilleures pratiques pour sécuriser les modèles d'IA et de ML

Les équipes chargées des données et de la sécurité doivent collaborer activement pour atteindre leur objectif d'amélioration de la sécurité des systèmes d'IA. Que vous implémentiez des solutions de machine learning traditionnelles ou des applications basées sur les LLM, Databricks vous recommande de suivre les étapes décrites dans le livre blanc sur la sécurité de l'IA de Databricks.

Identify the AI business use case

Always remember your business goals. Ensure there is a well-defined use case with your stakeholders, whether already implemented or in the planning phases. We recommend leveraging Databricks Solution Accelerators, which are purpose-built guides to speed up results across your most common and high-impact AI and ML use cases.

Determine the AI deployment model

Choose an appropriate model such as a traditional custom tabular model, SaaS LLM, retrieval augmented generation (RAG), fine-tuned model or external model. Each deployment model has a varying shared responsibility split across the 12 AI system components and among your organization, the Databricks Data Intelligence Platform and any partners involved. 

Select the most pertinent risks

From our documented list of 62 security risks, pinpoint the most relevant to your organization based on its deployment model.

Enumerate threats for each risk

Identify the specific threats linked to each risk and the targeted AI component for every threat.

Choose and implement controls

Select controls that align with your organization’s risk appetite. The responsibility for the implementation of these controls may be shared among your organization, your cloud provider and your data and AI vendor(s). You can leverage the Databricks AI Security Framework compendium (Google Sheets, Excel) to help you map this out.

FAQ

Ressources sur la sécurité de l'IA