Direkt zum Hauptinhalt

Sicherheits- und Vertrauenscenter

Ihre Datensicherheit ist unsere Priorität

 

 

KI-Sicherheit

Best Practices zur Minderung der mit KI-Modellen verbundenen Risiken

Unter KI-Sicherheit versteht man die Praktiken, Maßnahmen und Strategien, die zum Schutz von Systemen, Modellen und Daten der künstlichen Intelligenz vor unbefugtem Zugriff, Manipulation oder böswilligen Aktivitäten umgesetzt werden. Unternehmen müssen robuste Sicherheitsprotokolle, Verschlüsselungsmethoden, Zugriffskontrollen und Monitoring-Mechanismen implementieren, um KI-Assets zu schützen und die mit ihrer Nutzung verbundenen potenziellen Risiken zu mindern. 

In enger Zusammenarbeit mit unseren Kunden sorgt unser Databricks-Sicherheitsteam dafür, dass KI und maschinelles Lernen sicher und mit allen Funktionen, die den Architekturanforderungen der Kunden entsprechen, auf Databricks implementiert werden. Wir arbeiten auch intern bei Databricks und in der größeren ML- und GenAI-Community mit Dutzenden von Experten zusammen, um Sicherheitsrisiken für KI-Systeme zu identifizieren und die zur Minderung dieser Risiken erforderlichen Kontrollen zu definieren. 

KI-Systeme verstehen

Aus welchen Komponenten besteht ein KI-System und wie arbeiten sie zusammen?

KI-Systeme bestehen aus Daten, Code und Modellen. Ein typisches End-to-End-KI-System hat 12 grundlegende Architekturkomponenten, die grob in vier Hauptphasen eingeteilt werden:

  1. Datenvorgänge umfassen die Aufnahme und Transformation von Daten sowie die Gewährleistung von Datensicherheit und Governance. Gute ML-Modelle sind von zuverlässigen Datenpipelines und einer sicheren Infrastruktur abhängig.
  2. Modellbetrieb umfasst das Erstellen benutzerdefinierter Modelle, den Erwerb von Modellen von einem Modellmarktplatz oder die Verwendung von Software-as-a-Service (SaaS) Large Language Models (LLMs) wie OpenAI. Die Entwicklung eines Modells erfordert eine Reihe von Experimenten und eine Möglichkeit, die Bedingungen und Ergebnisse dieser Experimente zu verfolgen und zu vergleichen.
  3. Modellimplementierung und -bereitstellung besteht aus der sicheren Erstellung von Modell-Images, der Isolierung und sicheren Bereitstellung von Modellen, der automatisierten Skalierung, der Ratenbegrenzung und dem Monitoring von bereitgestellten Modellen.
  4. Betrieb und Plattform umfassen das Schwachstellenmanagement und Patching der Plattform, die Modellisolierung und Kontrollen für das System sowie den autorisierten Zugriff auf Modelle mit Sicherheit in der Architektur. Dazu gehören auch betriebliche Tools für CI/CD. Dadurch wird sichergestellt, dass der gesamte Lebenszyklus die erforderlichen Standards erfüllt, indem die verschiedenen Ausführungsumgebungen – Entwicklung, Staging und Produktion – für MLOps sicher gehalten werden.   

Die nachstehende Abbildung zeigt die 12 Komponenten und wie sie in einem KI-System interagieren.

ai system components and associated risks transparent

KI-Sicherheitsrisiken verstehen

Welche Sicherheitsbedrohungen können bei der Einführung von KI auftreten?

In unserer Analyse von KI-Systemen haben wir 62 technische Sicherheitsrisiken in den 12 grundlegenden Architekturkomponenten identifiziert. In der nachstehenden Tabelle skizzieren wir diese grundlegenden Komponenten, die den Schritten in jedem KI-System entsprechen, und heben einige Beispiele für Sicherheitsrisiken hervor. Die vollständige Liste der 62 technischen Sicherheitsrisiken finden Sie im Databricks AI Security Framework.

Phase des KI-Systems

KI-Systemkomponenten

Potenzielle Sicherheitsrisiken

Datenvorgänge

1. Rohdaten 

2. Datenvorbereitung 

3. Datasets

4. Katalog und Governance

20 spezifische Risiken wie:

  • Unzureichende Zugriffskontrollen
  • Klassifizierung fehlender Daten
  • Schlechte Datenqualität
  • Fehlende Datenzugriffslogs
  • Datenvergiftung

Modellbetrieb

5. ML-Algorithmus

6. Evaluierung

7. Modellerstellung

8. Modellmanagement

15 spezifische Risiken wie:

  • Mangelnde Nachverfolgung und Reproduzierbarkeit von Experimenten
  • Modelldrift
  • Hyperparameter-Diebstahl
  • Schädliche Bibliotheken
  • Vergiftung von Evaluierungsdaten

Modellimplementierung und -bereitstellung

9. Model Serving – Inferenzanfragen

10. Model Serving – Inferenzantworten

19 spezifische Risiken wie:

  • Prompt-Injection
  • Modellinversion
  • Dienstverweigerung (DoS)
  • LLM-Halluzinationen
  • Black-Box-Angriffe

Betrieb und Plattform

11. ML-Betrieb 

12. ML-Plattform

8 spezifische Risiken wie:

  • Fehlendes Schwachstellenmanagement
  • Fehlende Penetrationstests und Bug-Bounty-Programme
  • Unbefugter privilegierter Zugriff
  • Mangelhafter Softwareentwicklungslebenszyklus (SDLC)
  • Mangelnde Compliance

Welche Kontrollen gibt es, um KI-Sicherheitsrisiken zu mindern?

Es gibt 64 präskriptive Kontrollen zur Minderung der identifizierten 62 KI-Sicherheitsrisiken. Zu diesen Kontrollen gehören:

  • Best Practices für Cybersicherheit wie Single Sign-On, Verschlüsselungstechniken, Kontrollen für Bibliotheken und Quellcode sowie Netzwerkzugriffskontrollen mit einem Defense-in-Depth-Ansatz zum Risikomanagement
  • Spezifische Kontrollen für die Daten- und KI-Governance wie Datenklassifizierung, Data Lineage, Datenversionierung, Modellverfolgung, Berechtigungen für Daten- und Modell-Assets sowie Modell-Governance
  • KI-spezifische Kontrollen wie die Isolierung der Modellbereitstellung, Prompt-Tools, Überprüfung und Monitoring von Modellen, MLOps und LLMOps, zentrales LLM-Management, Feinabstimmung und Vortraining Ihrer Modelle

Wenn Sie an einem detaillierten Überblick über die mit KI-Systemen verbundenen Sicherheitsrisiken und die für jedes Risiko zu implementierenden Kontrollen interessiert sind, laden wir Sie ein, unser Databricks AI Security Whitepaper herunterzuladen.

Best Practices zur Absicherung von KI- und ML-Modellen

Daten- und Sicherheitsteams müssen aktiv zusammenarbeiten, um ihr Ziel, die Sicherheit von KI-Systemen zu verbessern, zu verfolgen. Unabhängig davon, ob Sie herkömmliche Machine-Learning-Lösungen oder LLM-gesteuerte Anwendungen implementieren, empfiehlt Databricks die folgenden Schritte, wie im Databricks AI Security Whitepaper beschrieben.

Identify the AI business use case

Always remember your business goals. Ensure there is a well-defined use case with your stakeholders, whether already implemented or in the planning phases. We recommend leveraging Databricks Solution Accelerators, which are purpose-built guides to speed up results across your most common and high-impact AI and ML use cases.

Determine the AI deployment model

Choose an appropriate model such as a traditional custom tabular model, SaaS LLM, retrieval augmented generation (RAG), fine-tuned model or external model. Each deployment model has a varying shared responsibility split across the 12 AI system components and among your organization, the Databricks Data Intelligence Platform and any partners involved. 

Select the most pertinent risks

From our documented list of 62 security risks, pinpoint the most relevant to your organization based on its deployment model.

Enumerate threats for each risk

Identify the specific threats linked to each risk and the targeted AI component for every threat.

Choose and implement controls

Select controls that align with your organization’s risk appetite. The responsibility for the implementation of these controls may be shared among your organization, your cloud provider and your data and AI vendor(s). You can leverage the Databricks AI Security Framework compendium (Google Sheets, Excel) to help you map this out.

FAQs

Ressourcen zur KI-Sicherheit