Una conversación con el Director de Producto de Barracuda, Neal Bradbury, sobre por qué la capa de datos propietaria es el verdadero "foso" cuando el panorama de amenazas de cada cliente es único
por Aly McGue
Las empresas de ciberseguridad se enfrentan a una paradoja. Sus clientes siguen añadiendo más herramientas de seguridad, esperando más protección. Pero los datos demuestran cada vez más que la proliferación de herramientas hace que las organizaciones tarden más en detectar y responder a las amenazas. Al mismo tiempo, la IA está acelerando ambos lados de la ecuación: dando a los defensores nuevas capacidades y facilitando enormemente a los atacantes operar a escala.
Durante más de veinte años, Barracuda ha protegido a las organizaciones de las amenazas en evolución con su plataforma de ciberseguridad BarracudaONE, que maximiza la resiliencia cibernética unificando la protección en correo electrónico, datos, redes, aplicaciones y XDR gestionado. Barracuda utiliza Databricks para su plataforma de datos empresariales, consolidando silos de datos fragmentados para potenciar operaciones de ML, correlación de amenazas en tiempo real e inteligencia empresarial. Utilizando Databricks Genie, el equipo desarrolló y lanzó rápidamente funciones como la búsqueda de registros en lenguaje natural para su solución XDR gestionada, permitiendo a los clientes consultar miles de millones de eventos de seguridad en lenguaje natural manteniendo un estricto aislamiento de datos.
Neal Bradbury es Director de Producto en Barracuda, responsable de la gestión de productos, ingeniería, seguridad y operaciones en la nube. Ha liderado el cambio hacia lo que Barracuda denomina desarrollo de productos nativos de IA, en el que la inteligencia se integra en el núcleo de cada aplicación en lugar de añadirse como una interfaz.
El hilo conductor de nuestra conversación fue constante: en una era en la que los atacantes operan a escala, los defensores que ganan con IA son aquellos que tratan su telemetría de seguridad propietaria como un activo estratégico. No se limitan a añadir herramientas de IA; están integrando inteligencia directamente en la capa de datos para mantenerse a la vanguardia de las amenazas en evolución.
Aly McGue: ¿Cómo define una "aplicación nativa de IA" en su negocio en comparación con una aplicación tradicional? ¿Cuál es la diferencia estratégica para la experiencia del cliente?
Neal Bradbury: Para nosotros, nativo de IA significa que está integrado, no añadido. La aplicación debe estar diseñada con la IA en su núcleo. En seguridad, eso significa observabilidad, gobernanza, controles de acceso y aplicación, todo integrado desde el primer día. Tenemos nuestro Asistente de IA Bailey, pero el núcleo de cómo funcionan nuestras aplicaciones, ya sea nuestro WAF o nuestra protección de correo electrónico, son nativas de IA en su base.
La otra gran distinción es que las aplicaciones nativas de IA se adaptan continuamente. Una aplicación tradicional se construye de una manera determinada y opera de esa manera hasta que alguien la modifica. Una aplicación nativa de IA es más dinámica. Responde a los datos cambiantes del cliente, a las necesidades cambiantes y a los objetivos cambiantes. Se encuentra con el cliente donde está a medida que las cosas evolucionan, lo que importa mucho cuando el panorama se mueve tan rápido como lo hace ahora.
En nuestro caso, recopilamos amenazas y riesgos de los clientes en toda la plataforma BarracudaONE. Cada cliente tiene un perfil de riesgo diferente. Cada cliente necesita que se prioricen diferentes amenazas. Por lo tanto, no puede ser rígido. Esa es realmente la diferencia estratégica: una solución nativa de IA se adapta a cada cliente en lugar de forzar a todos por el mismo camino determinista.
Aly: ¿Qué se necesitó para reestructurar su producto principal e integrar funciones nativas de IA como personalización, motores de recomendación o herramientas de copiloto?
Neal: Volvería a nuestra solución XDR gestionada como ejemplo. Tuvimos que cuestionar realmente el enfoque y el propósito de esa oferta, y luego trabajar hacia atrás. ¿Qué problema estamos resolviendo realmente? ¿Qué resultado estamos entregando al cliente? Cualquier gestor de producto debería empezar por ahí, pero se vuelve aún más crítico cuando se integra IA, porque las decisiones de arquitectura que se toman al principio determinan lo que es posible más adelante.
La pieza fundamental fue organizar la capa de datos. Si sus datos están por todas partes o el esquema no se comparte, simplemente causa problemas posteriores para todo. Poder normalizar el esquema permitió a nuestros modelos y agentes de machine learning tener contexto completo en todos los dominios y realmente hacer lo que necesitábamos que hicieran.
También fuimos disciplinados al tomar pequeños bocados. No intentamos migrar todo a la vez. Empezamos con pequeñas partes, iteramos y avanzamos hacia el resultado completo. Se puede encontrar una forma más elegante de describirlo, pero fue: entender cuál debe ser la salida, y luego iterar para llegar allí.
Lo que surgió de ese proceso fue la detección en streaming en tiempo real construida con notebooks, operaciones de ML ejecutándose a través de MLflow, y múltiples modelos de machine learning con más de 30 características que mejoran continuamente. Y la parte emocionante es que hemos podido extender ese mismo patrón de plataforma a otros productos: nuestro WAF-as-a-service, nuestro motor de configuración automatizada, seguridad de API y protección avanzada contra bots. Por lo tanto, la inversión se acumula.
Aly: ¿Cómo alineó con éxito los equipos de producto, ciencia de datos e ingeniería para trabajar desde una plataforma de datos e IA compartida para acelerar el tiempo de comercialización de estas funciones?
Neal: Sonaré como un disco rayado, pero realmente se redujo a definir primero los resultados compartidos. Tomemos nuestra función de protección contra la suplantación de identidad en Barracuda Email Protection, que protege a los clientes contra ataques avanzados. El resultado no fue simple, pero fue claro. Y esa claridad significó que los equipos pudieron impulsar un objetivo unificado sin perderse en debates sobre herramientas. Teníamos Databricks como plataforma, teníamos un destino y podíamos ejecutar.
La misma lógica se aplica cuando trabajamos con funciones no de ingeniería. Cuando abordamos la reducción de la rotación de clientes, necesitábamos información del cliente, telemetría del producto y datos de ventas. Poder reunir todo eso en una única plataforma de datos empresariales y ver realmente información interfuncional fue lo que impulsó la alineación. No fue un mandato desde arriba. Fue un resultado compartido que todos podían ver y medir. Eso es lo que mueve a la gente.
Aly: ¿Cómo le da la creación de aplicaciones nativas de IA en su propia capa de datos una ventaja competitiva más profunda y defendible en comparación con depender únicamente de modelos SaaS externos?
Neal: Su propia capa de datos es el diferenciador. Punto. Los agentes de IA solo son tan fuertes como los datos propietarios y ricos en contexto a los que pueden acceder. Cuando se construye sobre su telemetría de seguridad unificada, se crea una ventaja que los modelos SaaS genéricos simplemente no pueden replicar.
Debido a que construimos sobre nuestros propios datos, podemos personalizar para la telemetría y los insights específicos que obtenemos en toda la cartera de seguridad. Eso nos permite proporcionar recomendaciones específicas y tomar decisiones junto con nuestros clientes de maneras que un modelo externo de talla única nunca podría.
La forma en que lo pienso es la siguiente: un producto nativo de IA puede utilizar el contexto de implementación y comportamiento específico del cliente para adaptarse y responder de maneras que una IA SaaS externa simplemente no puede. Y esa ventaja se acumula. Cuantos más datos fluyen por el sistema, mejor se vuelve para comprender el entorno único de cada cliente. Nadie puede acortar el camino para llegar a eso.
Lo que quedó más claro en esta conversación es que "nativo de IA" es un compromiso arquitectónico, no una etiqueta de función. Neal traza una línea entre los productos que tienen la IA diseñada en su base y los productos que añaden una interfaz inteligente sobre un sistema tradicional. La diferencia se manifiesta en la dinámica con la que se adapta el producto, lo bien que utiliza el contexto propietario y lo defendible que es el resultado a lo largo del tiempo.
Para los ejecutivos que evalúan sus propias estrategias de producto, la pregunta que vale la pena considerar es: ¿Está la inteligencia integrada en el núcleo de lo que se envía, o está superpuesta? La respuesta determina no solo lo que su producto puede hacer hoy, sino qué tan rápido puede evolucionar cuando el panorama cambie de nuevo.
Para obtener más información sobre cómo construir un modelo operativo eficaz, descargue el Modelo de Madurez de IA de Databricks.
(Esta entrada del blog ha sido traducida utilizando herramientas basadas en inteligencia artificial) Publicación original
Suscríbete a nuestro blog y recibe las últimas publicaciones directamente en tu bandeja de entrada.