Ir al contenido principal

Seguridad y confianza

La seguridad de sus datos es nuestra máxima prioridad.

Seguridad de IA

Prácticas recomendadas para mitigar los riesgos asociados con los modelos de IA

La seguridad de la IA se refiere a las prácticas, las medidas y las estrategias implementadas para proteger los sistemas de inteligencia artificial, los modelos y los datos contra el acceso no autorizado, la manipulación o las actividades maliciosas. Las organizaciones deben implementar protocolos de seguridad sólidos, métodos de cifrado, controles de acceso y mecanismos de monitoreo para proteger los activos de IA y mitigar los riesgos potenciales asociados con su uso. 

Nuestro equipo de seguridad de Databricks trabaja con nuestra base de clientes para implementar IA y aprendizaje automático en Databricks de forma segura con las características adecuadas que cumplan con los requisitos de arquitectura de los clientes. También trabajamos con docenas de expertos internos en Databricks y en la comunidad más amplia de ML y GenAI para identificar los riesgos de seguridad de los sistemas de IA y definir los controles necesarios para mitigarlos. 

Comprensión de los sistemas de IA

¿Qué componentes conforman un sistema de IA y cómo funcionan en conjunto?

Los sistemas de IA se componen de datos, código y modelos. Un sistema de IA típico de extremo a extremo tiene 12 componentes de arquitectura fundamentales, categorizados en términos generales en cuatro etapas principales:

  1. Las operaciones de datos incluyen la ingesta y la transformación de datos y garantizan su seguridad y gobernanza. Los buenos modelos de AA dependen de canalizaciones de datos confiables y de una infraestructura segura.
  2. Las operaciones de modelos incluyen la creación de modelos personalizados, la adquisición de modelos de un mercado de modelos o el uso de modelos de lenguaje grandes (LLM) de software como servicio (SaaS), como OpenAI. El desarrollo de un modelo requiere una serie de experimentos y una forma de hacer un seguimiento y comparar las condiciones y los resultados de dichos experimentos.
  3. El despliegue y la entrega de modelos consiste en crear imágenes de modelos de forma segura, aislar y entregar modelos de forma segura, el escalamiento automatizado, la limitación de frecuencia y el monitoreo de los modelos desplegados.
  4. Operaciones y plataforma incluyen la gestión de vulnerabilidades de la plataforma y la aplicación de parches, el aislamiento de los modelos y los controles del sistema y el acceso autorizado a los modelos con seguridad en la arquitectura. También consta de herramientas operativas para CI/CD. Garantiza que el ciclo de vida completo cumpla con los estándares requeridos al mantener seguros los distintos entornos de ejecución (desarrollo, preproducción y producción) para MLOps.   

La siguiente imagen resalta los 12 componentes y cómo interactúan en un sistema de IA.

ai system components and associated risks transparent

Comprensión de los riesgos de seguridad de la IA

¿Cuáles son las amenazas de seguridad que pueden surgir al adoptar la IA?

En nuestro análisis de los sistemas de IA, identificamos 62 riesgos de seguridad técnicos en los 12 componentes fundamentales de la arquitectura. En la siguiente tabla, describimos estos componentes básicos, que se alinean con los pasos de cualquier sistema de IA, y destacamos algunos ejemplos de riesgos de seguridad. La lista completa de los 62 riesgos de seguridad técnicos se puede encontrar en el Databricks AI Security Framework.

Etapa del sistema de IA

Componentes del sistema de IA

Posibles riesgos de seguridad

Operaciones de datos

1. Datos crudos 

2. Preparación de datos 

3. Conjuntos de datos

4. Catálogo y gobernanza

20 riesgos específicos, como:

  • Controles de acceso insuficientes
  • Falta de clasificación de datos
  • Baja calidad de los datos
  • Falta de registros de acceso a los datos
  • Envenenamiento de datos

Operaciones de modelos

5. Algoritmo de ML

6. Evaluación

7. Creación del modelo

8. Gestión de modelos

15 riesgos específicos, como:

  • Falta de seguimiento y reproducibilidad de los experimentos
  • Desviación del modelo
  • Robo de hiperparámetros
  • Bibliotecas maliciosas
  • Envenenamiento de los datos de evaluación

Implementación y servicio de modelos

9. Servicio de modelos: solicitudes de inferencia

10. Servicio de modelos: respuestas de inferencia

19 riesgos específicos, como:

  • Inyección de prompts
  • Inversión del modelo
  • Denegación de servicio (DOS)
  • Alucinaciones de los LLM
  • Ataques de caja negra

Operaciones y plataforma

11. Operaciones de ML 

12. Plataforma de ML

8 riesgos específicos, como:

  • Falta de gestión de vulnerabilidades
  • Falta de pruebas de penetración y bug bounty
  • Acceso privilegiado no autorizado
  • Ciclo de vida de desarrollo de software (SDLC) deficiente
  • Falta de cumplimiento

¿Qué controles hay disponibles para mitigar los riesgos de seguridad de la IA?

Existen 64 controles prescriptivos para mitigar los 62 riesgos de seguridad de la IA identificados. Estos controles incluyen:

  • Mejores prácticas de ciberseguridad, como el inicio de sesión único, las técnicas de cifrado, los controles de bibliotecas y código fuente y los controles de acceso a la red con un enfoque de defensa en profundidad para gestionar los riesgos
  • Controles específicos de la gobernanza de datos y de la IA, como la clasificación de datos, el linaje de datos, el control de versiones de datos, el seguimiento de modelos, los permisos de activos de datos y modelos, y la gobernanza de modelos
  • Controles específicos para la IA, como el aislamiento del servicio de modelos, herramientas de prompts, auditoría y supervisión de modelos, MLOps y LLMOps, gestión centralizada de LLM, ajuste fino y preentrenamiento de sus modelos

Si le interesa obtener una descripción detallada de los riesgos de seguridad asociados a los sistemas de IA y qué controles se deben implementar para cada riesgo, lo invitamos a descargar nuestro Databricks AI Security Whitepaper.

Mejores prácticas para proteger los modelos de IA y ML

Los equipos de datos y seguridad deben colaborar activamente para alcanzar su objetivo de mejorar la seguridad de los sistemas de IA. Ya sea que esté implementando soluciones tradicionales de machine learning o aplicaciones basadas en LLM, Databricks recomienda seguir los pasos que se indican a continuación, tal como se describe en el Databricks AI Security Whitepaper.

Identify the AI business use case

Always remember your business goals. Ensure there is a well-defined use case with your stakeholders, whether already implemented or in the planning phases. We recommend leveraging Databricks Solution Accelerators, which are purpose-built guides to speed up results across your most common and high-impact AI and ML use cases.

Determine the AI deployment model

Choose an appropriate model such as a traditional custom tabular model, SaaS LLM, retrieval augmented generation (RAG), fine-tuned model or external model. Each deployment model has a varying shared responsibility split across the 12 AI system components and among your organization, the Databricks Data Intelligence Platform and any partners involved. 

Select the most pertinent risks

From our documented list of 62 security risks, pinpoint the most relevant to your organization based on its deployment model.

Enumerate threats for each risk

Identify the specific threats linked to each risk and the targeted AI component for every threat.

Choose and implement controls

Select controls that align with your organization’s risk appetite. The responsibility for the implementation of these controls may be shared among your organization, your cloud provider and your data and AI vendor(s). You can leverage the Databricks AI Security Framework compendium (Google Sheets, Excel) to help you map this out.

PREGUNTAS FRECUENTES

Recursos de seguridad de la IA