メインコンテンツへジャンプ

セキュリティ& トラスト・センター

データ保護は Databricks の最優先事項です

 

 

AI セキュリティ

AIモデルに関連するリスクを軽減するためのベストプラクティス

AIセキュリティとは、人工知能システム、モデル、データを不正アクセス、改ざん、悪意のある活動から保護するために実施されるプラクティス、対策、戦略を指します。組織は、AI資産を保護し、その使用に伴う潜在的なリスクを軽減するために、堅牢なセキュリティプロトコル、暗号化方式、アクセス制御、モニタリングメカニズムを実装する必要があります。

Databricks セキュリティチームは、お客さまと協力し、お客さまのアーキテクチャ要件を満たす適切なセキュリティ機能を備えた AI と機械学習を Databricks 上にデプロイします。当社はまた、Databricks社内および、より広範な機械学習およびGenAIコミュニティの数十人の専門家と協力して、AIシステムのセキュリティリスクを特定し、それらのリスクを軽減するために必要な管理策を定義しています。

AI システムの理解

AIシステムはどのような構成要素から成り立っており、それらはどのように連携して機能するのでしょうか?

AIシステムは、データ、コード、モデルから構成されます。一般的なエンドツーエンドAIシステムには12個の基礎的なアーキテクチャコンポーネントがあり、これらは大きく4つの主要なステージに分類されます。

  1. データオペレーション には、データの取り込みと変換、データセキュリティとガバナンスの確保が含まれます。優れたMLモデルは、信頼性の高いデータパイプラインと安全なインフラストラクチャに依存します。
  2. モデル運用 には、カスタムモデルの構築、モデル マーケットプレイスからのモデルの取得、あるいは OpenAI などの Software-as-a-Service (SaaS) の大規模言語モデル (LLM) の使用が含まれます。モデルを開発するには、一連の**エクスペリメント**と、それらの**エクスペリメント**の条件や結果を追跡・比較する方法が必要です。
  3. モデルのデプロイとサービングは、モデル イメージの安全なビルド、モデルの分離と安全なサービング、自動スケーリング、レート制限、デプロイ済みモデルのモニタリングで構成されます。
  4. 運用とプラットフォームには、プラットフォームの脆弱性管理とパッチ適用、モデルの分離とシステム制御、アーキテクチャのセキュリティに基づいたモデルへのアクセス認可が含まれます。CI/CD のための運用ツールも含まれています。MLOps のために、開発、ステージング、本番運用といった個別の実行環境を安全に保つことで、ライフサイクル全体が求められる基準を満たすことを保証します。

下の画像は、AI システム全体における 12 のコンポーネントと、それらがどのように相互作用するかを示しています。

ai system components and associated risks transparent

AI セキュリティリスクの理解

AI導入時に生じる可能性のあるセキュリティ上の脅威とは何ですか?

AIシステムの分析において、12の基本的なアーキテクチャコンポーネントにわたる62の技術的なセキュリティリスクを特定しました。下の表では、あらゆるAIシステムのステップに対応するこれらの基本的なコンポーネントの概要を説明し、セキュリティリスクの例をいくつか紹介します。62の技術的なセキュリティリスクの全リストは、Databricks AI Security Frameworkでご覧いただけます。

AI システムの段階

AI システムコンポーネント

潜在的なセキュリティリスク

データオペレーション

1. 生データ 

2. データ準備

3. データセット

4. カタログとガバナンス

次のような 20 の特定のリスク:

  • 不十分なアクセス制御
  • 欠損データの分類
  • 低いデータ品質
  • データアクセスログの欠如
  • データポイズニング

モデル運用

5. 機械学習アルゴリズム

6. 評価

7. モデルのビルド

8. モデル管理

15 の特定のリスク(例:)

  • エクスペリメントの追跡と再現性の欠如
  • モデルドリフト
  • ハイパーパラメータの窃取
  • 悪意のあるライブラリ
  • 評価データ汚染

モデルのデプロイとサービング

9. モデルサービング — 推論リクエスト

10. モデルサービング — 推論応答

次のような 19 の特定のリスク:

  • プロンプト インジェクション
  • モデル反転
  • サービス拒否(DOS)
  • LLM ハルシネーション
  • ブラックボックス攻撃

運用とプラットフォーム

11. 機械学習オペレーション

12. 機械学習プラットフォーム

以下のような8つの特定のリスク:

  • 脆弱性管理の欠如
  • ペネトレーションテストとバグバウンティの欠如
  • 不正な特権アクセス
  • 不十分なソフトウェア開発ライフサイクル (SDLC)
  • コンプライアンス違反

AI のセキュリティリスクを軽減するために、どのような制御が可能ですか?

特定された 62 の AI セキュリティリスクを軽減するために、64 の規範的な管理策があります。これらのコントロールには以下が含まれます。

  • リスク管理のための多層防御アプローチを用いた、シングルサインオン、暗号化技術、ライブラリとソースコードの管理、ネットワークアクセス制御などのサイバーセキュリティのベストプラクティス
  • データ分類、データリネージ、データバージョニング、モデル追跡、データおよびモデルのアセット権限、モデルガバナンスなどのデータとAIガバナンスに特化したコントロール
  • モデルサービングの分離、プロンプトツール、モデルの監査とモニタリング、MLOps と LLMOps、LLM の一元管理、モデルのファインチューニングと事前トレーニングのようなAI に特化したコントロール

AIシステムに関連するセキュリティリスクの詳細な概要や、各リスクに対して実装すべき統制についてご興味がおありでしたら、Databricks AI Security Whitepaperをダウンロードしてください。

AI および ML モデルのセキュリティのベストプラクティス

データチームとセキュリティチームは、AIシステムのセキュリティを向上させるという目標を追求するため、積極的に協力する必要があります。従来の機械学習ソリューションとLLM駆動型アプリケーションのどちらを実装する場合でも、DatabricksはDatabricks AIセキュリティホワイトペーパーで概説されている以下のステップを踏むことを推奨します。

Identify the AI business use case

Always remember your business goals. Ensure there is a well-defined use case with your stakeholders, whether already implemented or in the planning phases. We recommend leveraging Databricks Solution Accelerators, which are purpose-built guides to speed up results across your most common and high-impact AI and ML use cases.

Determine the AI deployment model

Choose an appropriate model such as a traditional custom tabular model, SaaS LLM, retrieval augmented generation (RAG), fine-tuned model or external model. Each deployment model has a varying shared responsibility split across the 12 AI system components and among your organization, the Databricks Data Intelligence Platform and any partners involved. 

Select the most pertinent risks

From our documented list of 62 security risks, pinpoint the most relevant to your organization based on its deployment model.

Enumerate threats for each risk

Identify the specific threats linked to each risk and the targeted AI component for every threat.

Choose and implement controls

Select controls that align with your organization’s risk appetite. The responsibility for the implementation of these controls may be shared among your organization, your cloud provider and your data and AI vendor(s). You can leverage the Databricks AI Security Framework compendium (Google Sheets, Excel) to help you map this out.

FAQ

AI セキュリティ関連リソース