Passa al contenuto principale

Sicurezza & Trust Center

La sicurezza dei tuoi dati è la nostra priorità

 

 

Sicurezza dell'AI

Best practice per mitigare i rischi associati ai modelli di IA

La sicurezza dell'IA si riferisce alle pratiche, alle misure e alle strategie implementate per proteggere i sistemi, i modelli e i dati di intelligenza artificiale da accessi non autorizzati, manipolazioni o attività dannose. Le organizzazioni devono implementare solidi protocolli di sicurezza, metodi di crittografia, controlli degli accessi e meccanismi di monitoraggio per salvaguardare gli asset di IA e mitigare i potenziali rischi associati al loro utilizzo. 

Il nostro team di sicurezza collabora con i clienti per distribuire soluzioni di AI e machine learning su Databricks in modo sicuro e con funzionalità appropriate ai requisiti dell'architettura dei clienti. Collaboriamo inoltre con decine di esperti interni a Databricks e nella più ampia community di ML e GenAI per identificare i rischi per la sicurezza dei sistemi di IA e definire i controlli necessari per mitigare tali rischi. 

Comprensione dei sistemi di AI

Da quali componenti è composto un sistema di IA e come funzionano insieme?

I sistemi di IA sono composti da dati, codice e modelli. Un tipico sistema di IA end-to-end ha 12 componenti architetturali fondamentali, ampiamente classificati in quattro fasi principali:

  1. Le attività operative sui dati includono l'acquisizione e la trasformazione dei dati e la garanzia della sicurezza e della governance dei dati. I buoni modelli di ML dipendono da pipeline di dati affidabili e da un'infrastruttura sicura.
  2. Le attività operative sui modelli includono la creazione di modelli personalizzati, l'acquisizione di modelli da un marketplace di modelli o l'utilizzo di modelli linguistici di grandi dimensioni (LLM) software-as-a-service (SaaS), come OpenAI. Lo sviluppo di un modello richiede una serie di esperimenti e un modo per monitorare e confrontare le condizioni e i risultati di tali esperimenti.
  3. La distribuzione e il servizio dei modelli consiste nella creazione sicura di immagini dei modelli, nell'isolamento e nel servizio sicuro dei modelli, nella scalabilità automatizzata, nella limitazione della velocità e nel monitoraggio dei modelli distribuiti.
  4. Attività operative e piattaforma includono la gestione delle vulnerabilità e l'applicazione di patch della piattaforma, l'isolamento dei modelli e i controlli del sistema, nonché l'accesso autorizzato ai modelli con sicurezza integrata nell'architettura. Include anche strumenti operativi per CI/CD. Garantisce che l'intero ciclo di vita soddisfi gli standard richiesti, mantenendo sicuri per MLOps i distinti ambienti di esecuzione (sviluppo, staging e produzione).   

L'immagine seguente evidenzia i 12 componenti e il modo in cui interagiscono all'interno di un sistema di IA.

ai system components and associated risks transparent

Comprensione dei rischi per la sicurezza dell'IA

Quali sono le minacce alla sicurezza che possono sorgere con l'adozione dell'IA?

Nella nostra analisi dei sistemi di IA, abbiamo identificato 62 rischi tecnici per la sicurezza nei 12 componenti dell'architettura di base. Nella tabella seguente illustriamo questi componenti di base, che corrispondono alle fasi di qualsiasi sistema di IA, ed evidenziamo alcuni esempi di rischi per la sicurezza. L'elenco completo dei 62 rischi tecnici per la sicurezza è disponibile nel Databricks AI Security Framework.

Fase del sistema di IA

Componenti del sistema di AI

Potenziali rischi per la sicurezza

Attività operative sui dati

1. Dati grezzi 

2. Preparazione dei dati 

3. Set di dati

4. Catalogo e governance

20 rischi specifici, come:

  • Controlli di accesso insufficienti
  • Mancata classificazione dei dati
  • Scarsa qualità dei dati
  • Mancanza di log di accesso ai dati
  • Avvelenamento dei dati

Le attività operative del modello

5. Algoritmo di ML

6. Valutazione

7. Creazione del modello

8. Gestione del modello

15 rischi specifici, come:

  • Mancanza di tracciamento e riproducibilità degli esperimenti
  • drift del modello
  • Furto di iperparametri
  • Librerie dannose
  • Avvelenamento dei dati di valutazione

Distribuzione e serving del modello

9. Model Serving: richieste di inferenza

10. Model Serving: risposte di inferenza

19 rischi specifici come:

  • Iniezione di prompt
  • Inversione del modello
  • Negazione del servizio (DOS)
  • Allucinazioni degli LLM
  • Attacchi black-box

Attività operative e piattaforma

11. attività operative di ML 

12. Piattaforma di ML

8 rischi specifici, quali:

  • Mancanza di gestione delle vulnerabilità
  • Mancanza di test di penetrazione e bug bounty
  • Accesso privilegiato non autorizzato
  • Ciclo di vita dello sviluppo software (SDLC) debole
  • Mancanza di conformità

Quali controlli sono disponibili per mitigare i rischi per la sicurezza dell'IA?

Esistono 64 controlli prescrittivi per mitigare i 62 rischi per la sicurezza dell'IA identificati. Questi controlli includono:

  • Best practice di cybersecurity quali single sign-on, tecniche di crittografia, controlli delle librerie e del codice sorgente e controlli di accesso alla rete con un approccio di difesa in profondità alla gestione dei rischi
  • Controlli specifici per la governance dei dati e dell'AI, quali classificazione dei dati, provenienza dei dati, data versioning, monitoraggio dei modelli, autorizzazioni per gli asset di dati e modelli e governance dei modelli
  • Controlli specifici per l'AI come isolamento del model serving, strumenti per i prompt, auditing e monitoraggio dei modelli, MLOps e LLMOps, gestione centralizzata degli LLM, fine-tuning e pre-addestramento dei modelli

Se desideri una panoramica approfondita dei rischi per la sicurezza associati ai sistemi di IA e dei controlli da implementare per ciascun rischio, ti invitiamo a download il nostro Whitepaper sulla sicurezza dell'IA di Databricks.

Best practice per la sicurezza dei modelli di AI e ML

I team che si occupano di dati e sicurezza devono collaborare attivamente per perseguire l'obiettivo di migliorare la sicurezza dei sistemi di IA. Sia che tu stia implementando soluzioni di machine learning tradizionali o applicazioni basate su LLM, Databricks consiglia di adottare i seguenti passaggi, come descritto nel Whitepaper sulla sicurezza di Databricks AI.

Identify the AI business use case

Always remember your business goals. Ensure there is a well-defined use case with your stakeholders, whether already implemented or in the planning phases. We recommend leveraging Databricks Solution Accelerators, which are purpose-built guides to speed up results across your most common and high-impact AI and ML use cases.

Determine the AI deployment model

Choose an appropriate model such as a traditional custom tabular model, SaaS LLM, retrieval augmented generation (RAG), fine-tuned model or external model. Each deployment model has a varying shared responsibility split across the 12 AI system components and among your organization, the Databricks Data Intelligence Platform and any partners involved. 

Select the most pertinent risks

From our documented list of 62 security risks, pinpoint the most relevant to your organization based on its deployment model.

Enumerate threats for each risk

Identify the specific threats linked to each risk and the targeted AI component for every threat.

Choose and implement controls

Select controls that align with your organization’s risk appetite. The responsibility for the implementation of these controls may be shared among your organization, your cloud provider and your data and AI vendor(s). You can leverage the Databricks AI Security Framework compendium (Google Sheets, Excel) to help you map this out.

Domande frequenti

Risorse per la sicurezza dell'IA