¡Nos complace anunciar el lanzamiento del whitepaper Databricks AI Security Framework (DASF) versión 1.0! El marco está diseñado para mejorar el trabajo en equipo entre los grupos de negocio, TI, datos, IA y seguridad. Simplifica los conceptos de IA y ML catalogando la base de conocimientos de los riesgos de seguridad de IA basados en observaciones de ataques del mundo real y ofrece un enfoque de defensa en profundidad para la seguridad de IA, además de brindar consejos prácticos para su aplicación inmediata.
El machine learning (ML) y la IA generativa (GenAI) están transformando el futuro del trabajo al mejorar la innovación, la competitividad y la productividad de los empleados. Sin embargo, las organizaciones se enfrentan al doble desafío de aprovechar las tecnologías de inteligencia artificial (IA) para obtener oportunidades, al mismo tiempo que gestionan los posibles riesgos de seguridad y privacidad, como las violaciones de datos y el incumplimiento normativo.
Este blog ofrecerá una descripción general del DASF, cómo utilizarlo para proteger las iniciativas de IA de su organización, compartirá una actualización sobre nuestro impulso externo y guiará de forma segura la adopción de IA en su organización.
La IA está impactando en todas las industrias y transformando la forma en que trabajamos. Ahora más que nunca, los líderes desean aprovechar los datos y la IA para transformar sus organizaciones. La seguridad y la gobernanza de la IA son fundamentales para establecer la confianza en los objetivos de IA de su organización. Según Gartner, la gestión de la confianza, el riesgo y la seguridad de la IA es la tendencia estratégica número 1 de 2024 que influirá en las decisiones de negocio y tecnología, y para 2026, los modelos de IA de las organizaciones que operacionalicen la transparencia, la confianza y la seguridad de la IA lograrán un aumento del 50% en términos de adopción, objetivos de negocio y aceptación por parte de los usuarios.
A principios de este año, anunciamos la adquisición de MosaicML por parte de Databricks y compartimos más sobre nuestro compromiso con la IA Responsable. Durante los últimos meses, hemos continuado fortaleciendo nuestro compromiso e impulso como líder de la industria en IA a través de nuevas asociaciones. Para complementar estas inversiones, el equipo de Seguridad de Databricks ahora organiza talleres de seguridad de IA para CISOs para educar a las organizaciones sobre cómo guiar con éxito su viaje de IA de manera consciente del riesgo. Aprendimos de nuestros clientes que los equipos de seguridad y gobernanza luchan por encontrar material confiable que desmitifique qué es la IA, cómo funciona y qué riesgos de seguridad pueden surgir a medida que se implementan estas tecnologías.
Tomamos estos aprendizajes para desarrollar el marco DASF y ayudar a los equipos de negocio, TI, datos, IA y seguridad a trabajar mejor juntos en la implementación de IA bajo los siguientes principios:
El DASF fue diseñado para que, sin importar la plataforma de datos e IA que utilice, pueda obtener un perfil de riesgo de extremo a extremo para las necesidades de implementación de IA de su organización con un conjunto concreto de controles que debería considerar implementar. Para comenzar con el DASF, recomendamos el siguiente enfoque, como se ilustra en la figura a continuación:
Paso 1 - Identificar el caso de uso de negocio de IA: Trabaje con sus partes interesadas, ya sea que ya estén implementados o en fases de planificación, en los casos de uso de IA de su organización. Recomendamos aprovechar los Aceleradores de Soluciones de Databricks, que son guías diseñadas específicamente para acelerar los resultados en sus casos de uso de IA y ML más comunes y de alto impacto. Revise qué conjuntos de datos se utilizarán, qué requisitos de cumplimiento pueden aplicarse y qué aplicaciones se verán afectadas por estos sistemas de IA para determinar las capacidades básicas requeridas de su plataforma de datos e IA.
Paso 2 - Determinar el modelo de implementación de IA: Elija un modelo de implementación apropiado, como modelos de ML predictivos, RAG-LLMs, LLMs ajustados (fine-tuned), LLMs preentrenados, modelos fundacionales y modelos externos. Cada modelo de implementación tiene una división variable de responsabilidad compartida entre los 12 componentes del sistema de IA y entre su organización, su plataforma de datos e IA y cualquier socio involucrado.
Paso 3 - Seleccionar los riesgos más pertinentes: De nuestra lista documentada de 55 riesgos de seguridad, identifique los más relevantes para su organización según el caso de uso y el modelo de implementación que su organización esté implementando. Para la mayoría de los casos de uso, solo será necesario abordar un pequeño subconjunto de los 55 riesgos.
Paso 4 - Elegir e implementar controles: Seleccione los controles que se alineen con el apetito de riesgo de su organización. Estos controles se definen genéricamente para ser compatibles con cualquier plataforma de datos e IA. Nuestro marco también proporciona directrices sobre cómo adaptar estos controles específicamente para la Plataforma de Inteligencia de Datos de Databricks con orientación específica de implementación de Databricks por nube. Utiliza estos controles junto con las políticas de su organización y tenga la garantía adecuada implementada.
Si esto aún parece mucho, continuaremos organizando nuestros talleres de seguridad de IA para aquellos que deseen una experiencia interactiva.
En la industria de la seguridad, cultivar la colaboración entre pares es imperativo para garantizar la seguridad, la protección y el éxito colectivos. No podríamos publicar un documento como el DASF hoy sin los estándares, marcos y herramientas de terceros que nos preceden, como las Directrices para el Desarrollo Seguro de Sistemas de IA, el Marco de Gestión de Riesgos de IA del NIST y el Marco Multicapa para Buenas Prácticas de Ciberseguridad para IA. Muchos más se referencian en el DASF y se pueden revisar en la sección de recursos.
Si bien realizamos innumerables revisiones internas con nuestros expertos en IA, ML y seguridad en Databricks, también nos reunimos con 15 líderes de la industria de seguridad de IA, incluidos los de HITRUST, Carnegie Mellon University, Capital One, Protect AI y Barracuda (¡y más citados a continuación!). Les agradecemos su tiempo, ideas y comentarios sobre cómo hacer que el DASF sea lo más práctico posible para nuestros colegas. Una lista completa de revisores se puede encontrar en la sección de agradecimientos del DASF.
"Cuando pienso en lo que hace que un acelerador sea bueno, se trata de hacer las cosas más fluidas, más eficientes y fomentar la innovación. El DASF es una herramienta probada y eficaz para que los equipos de seguridad ayuden a sus socios a sacar el máximo provecho de la IA. Además, se alinea con marcos de riesgo establecidos como NIST, por lo que no solo está acelerando las cosas, sino que está sentando una base sólida en el trabajo de seguridad." — Riyaz Poonawala, Vicepresidente de Seguridad de la Información, Navy Federal Credit Union

"Las empresas no necesitan sacrificar la seguridad por la innovación en IA. El Databricks AI Security Framework es una herramienta integral para permitir la adopción segura de la IA. No solo mapea las preocupaciones de seguridad de la IA con el pipeline de desarrollo de IA, sino que las hace accionables para los clientes de Databricks con controles prácticos. Estamos encantados de haber contribuido al desarrollo de este valioso recurso comunitario." — Hyrum Anderson, CTO, Robust Intelligence

"El DASF es un gran ejemplo del liderazgo de Databricks en IA y es una valiosa contribución a la industria en un momento crítico. Sabemos que el mayor riesgo asociado con la Inteligencia Artificial en el futuro previsible son las personas malintencionadas y este marco ofrece un contrapeso eficaz a esos ciberdelincuentes. El DASF es una forma pragmática, operativa y eficiente de asegurar su organización." — Chris "Tito" Sestito, CEO y Co-fundador de HiddenLayer

El whitepaper Databricks AI Security Framework está disponible para descargar en el Databricks Security and Trust Center. Hemos hecho un esfuerzo concertado para garantizar la precisión y nuestro equipo está deseoso de recibir sus comentarios. Si tiene algún comentario o pregunta, póngase en contacto con nosotros por correo electrónico a [email protected]. Esta alias es también donde puede solicitar más información sobre cómo unirse a un próximo taller de seguridad de IA o programar uno dedicado para su organización. Consulte nuestra nueva página de seguridad de IA para obtener recursos detallados sobre seguridad de IA y ML.
(Esta entrada del blog ha sido traducida utilizando herramientas basadas en inteligencia artificial) Publicación original
