Una conversazione con il Chief Product Officer di Barracuda, Neal Bradbury, sul perché i dati proprietari sono il vero fossato quando il panorama delle minacce di ogni cliente è unico
di Aly McGue
Le aziende di cybersecurity affrontano un paradosso. I loro clienti continuano ad aggiungere più strumenti di sicurezza, aspettandosi maggiore protezione. Ma i dati mostrano sempre più che la proliferazione di strumenti rallenta le organizzazioni nel rilevare e rispondere alle minacce. Allo stesso tempo, l'IA sta accelerando entrambi i lati dell'equazione: dando ai difensori nuove capacità e rendendo drasticamente più facile per gli attaccanti operare su larga scala.
Da oltre vent'anni, Barracuda protegge le organizzazioni dalle minacce in evoluzione con la sua piattaforma di cybersecurity BarracudaONE, che massimizza la resilienza informatica unificando la protezione su email, dati, reti, applicazioni e XDR gestito. Barracuda utilizza Databricks per la sua piattaforma dati aziendale, consolidando silos di dati frammentati per potenziare le operazioni di ML, la correlazione delle minacce in tempo reale e il business intelligence. Utilizzando Databricks Genie, il team ha sviluppato e lanciato rapidamente funzionalità come la ricerca di log in linguaggio naturale per la sua soluzione XDR gestita, consentendo ai clienti di interrogare miliardi di eventi di sicurezza in linguaggio semplice, mantenendo al contempo un rigoroso isolamento dei dati.
Neal Bradbury è Chief Product Officer di Barracuda, responsabile della gestione del prodotto, dell'ingegneria, della sicurezza e delle operazioni cloud. Ha guidato il passaggio a quello che Barracuda chiama sviluppo di prodotti AI-native, in cui l'intelligenza è integrata nel nucleo di ogni applicazione anziché essere aggiunta come interfaccia sopra.
Il filo conduttore della nostra conversazione è stato coerente: in un'era in cui gli attaccanti operano su larga scala, i difensori che vincono con l'IA sono quelli che trattano la loro telemetria di sicurezza proprietaria come un asset strategico. Non si limitano ad aggiungere strumenti di IA; stanno integrando l'intelligenza direttamente nello strato dati per rimanere un passo avanti rispetto alle minacce in evoluzione.
Aly McGue: Come definisci un'"applicazione AI-native" nella tua azienda rispetto a un'applicazione tradizionale? Qual è la differenza strategica per l'esperienza del cliente?
Neal Bradbury: Per noi, AI-native significa che è integrato, non aggiunto. L'applicazione deve essere architettata con l'IA al suo centro. Nella sicurezza, ciò significa osservabilità, governance, controlli di accesso e applicazione, tutti integrati fin dal primo giorno. Abbiamo il nostro Assistente AI Bailey, ma il nucleo di come funzionano le nostre applicazioni, che si tratti del nostro WAF o della nostra protezione email, sono AI-native alla loro base.
L'altra grande distinzione è che le applicazioni AI-native si adattano continuamente. Un'applicazione tradizionale è costruita in un certo modo e opera in quel modo finché qualcuno non interviene e la modifica. Un'applicazione AI-native è più dinamica. Risponde ai dati del cliente in evoluzione, alle esigenze in evoluzione e agli obiettivi in evoluzione. Incontra il cliente dove si trova man mano che le cose si evolvono, il che è molto importante quando il panorama si sta muovendo velocemente come ora.
Nel nostro caso, raccogliamo minacce e rischi dai clienti attraverso la piattaforma BarracudaONE. Ogni cliente ha un profilo di rischio diverso. Ogni cliente necessita di minacce diverse da prioritizzare. Quindi non può essere rigido. Questa è davvero la differenza strategica: una soluzione AI-native si adatta a ciascun cliente anziché costringere tutti a seguire lo stesso percorso deterministico.
Aly: Cosa è stato necessario per riarchitettare il vostro prodotto principale e integrare funzionalità AI-native come la personalizzazione, i motori di raccomandazione o gli strumenti copilot?
Neal: Tornerei alla nostra soluzione XDR gestita come esempio. Abbiamo dovuto davvero mettere in discussione il focus e lo scopo di quell'offerta, e poi lavorare a ritroso. Quale problema stiamo effettivamente risolvendo? Quale risultato stiamo fornendo al cliente? Qualsiasi product manager dovrebbe iniziare da lì, ma diventa ancora più critico quando si integra l'IA, perché le decisioni architetturali che si prendono all'inizio determinano ciò che è possibile in seguito.
Il pezzo fondamentale è stato organizzare lo strato dati. Se i tuoi dati sono sparsi ovunque o lo schema non è condiviso, ciò causa problemi a valle per tutto. Essere in grado di normalizzare lo schema ha permesso ai nostri modelli di machine learning e agli agenti di avere un contesto completo tra i domini e di fare effettivamente ciò di cui avevamo bisogno.
Siamo stati anche disciplinati nel procedere per piccoli passi. Non abbiamo cercato di migrare tutto in una volta. Abbiamo iniziato con piccoli pezzi, abbiamo iterato e abbiamo lavorato verso il risultato completo. Si può trovare un modo più elegante per descriverlo, ma era: capire quale deve essere l'output, quindi iterare per arrivarci.
Ciò che è emerso da quel processo sono state le rilevazioni in streaming in tempo reale costruite con notebook, le operazioni di ML eseguite tramite MLflow e molteplici modelli di machine learning con oltre 30 funzionalità che migliorano continuamente. E la parte entusiasmante è che siamo stati in grado di estendere lo stesso modello di piattaforma ad altri prodotti: il nostro WAF-as-a-service, il nostro motore di configurazione automatizzata, la sicurezza delle API e la protezione avanzata dai bot. Quindi l'investimento si moltiplica.
Aly: Come siete riusciti ad allineare i team di prodotto, data science e ingegneria per lavorare da una piattaforma dati e AI condivisa per accelerare il time-to-market per queste funzionalità?
Neal: Sembrerò un disco rotto, ma si è trattato davvero di definire prima i risultati condivisi. Prendiamo la nostra funzionalità di protezione dall'impersonificazione in Barracuda Email Protection, che protegge i clienti dagli attacchi avanzati. Il risultato non è stato semplice, ma era chiaro. E quella chiarezza ha permesso ai team di guidare verso un obiettivo unificato senza perdersi nei dibattiti sugli strumenti. Avevamo Databricks come piattaforma, avevamo una destinazione e potevamo semplicemente eseguire.
La stessa logica si applica quando lavoriamo con funzioni non ingegneristiche. Quando abbiamo affrontato la riduzione del churn, avevamo bisogno di informazioni sui clienti, telemetria del prodotto e dati di vendita. Essere in grado di riunire tutto ciò in un'unica piattaforma dati aziendale e ottenere effettivamente insight interfunzionali è ciò che ha guidato l'allineamento. Non è stato un mandato dall'alto. È stato un risultato condiviso che tutti potevano vedere e misurare. Questo è ciò che muove le persone.
Aly: In che modo la creazione di applicazioni AI-native sul proprio strato dati offre un vantaggio competitivo più profondo e difendibile rispetto all'affidarsi esclusivamente a modelli SaaS esterni?
Neal: Il tuo strato dati è il differenziatore. Punto. Gli agenti AI sono forti solo quanto i dati proprietari e ricchi di contesto a cui possono accedere. Quando costruisci sulla tua telemetria di sicurezza unificata, crei un vantaggio che i modelli SaaS generici non possono replicare.
Poiché costruiamo sui nostri dati, possiamo personalizzare la telemetria e gli insight specifici che otteniamo dall'intero portafoglio di sicurezza. Ciò ci consente di fornire raccomandazioni mirate e prendere decisioni insieme ai nostri clienti in modi che un modello esterno "taglia unica" non potrebbe mai fare.
Il modo in cui la penso è questo: un prodotto AI-native può utilizzare il contesto di distribuzione e comportamento specifico del cliente per adattarsi e rispondere in modi che un'IA SaaS esterna semplicemente non può. E quel vantaggio si moltiplica. Più dati fluiscono attraverso il sistema, migliore diventa la comprensione dell'ambiente unico di ciascun cliente. Nessuno può scorciatoia per ottenerlo.
Ciò che è emerso più chiaramente in questa conversazione è che AI-native è un impegno architetturale, non un'etichetta di funzionalità. Neal traccia una linea tra i prodotti che hanno l'IA progettata nella loro base e i prodotti che aggiungono un'interfaccia intelligente sopra un sistema tradizionale. La differenza si manifesta nel modo dinamico in cui il prodotto si adatta, quanto bene utilizza il contesto proprietario e quanto è difendibile il risultato nel tempo.
Per i dirigenti che valutano le proprie strategie di prodotto, la domanda su cui vale la pena riflettere è: l'intelligenza è integrata nel nucleo di ciò che spedite, o è stratificata sopra? La risposta determina non solo ciò che il vostro prodotto può fare oggi, ma quanto velocemente può evolversi quando il panorama cambierà di nuovo.
Per saperne di più sulla creazione di un modello operativo efficace, scarica il Databricks AI Maturity Model.
(Questo post sul blog è stato tradotto utilizzando strumenti basati sull'intelligenza artificiale) Post originale
Iscriviti al nostro blog e ricevi gli ultimi articoli direttamente nella tua casella di posta.