Ein Gespräch mit Barracuda Chief Product Officer Neal Bradbury darüber, warum die eigene Datenebene der wahre Schutzwall ist, wenn die Bedrohungslandschaft jedes Kunden einzigartig ist
von Aly McGue
Cybersicherheitsunternehmen stehen vor einem Paradoxon. Ihre Kunden fügen immer mehr Sicherheitstools hinzu und erwarten mehr Schutz. Aber die Daten zeigen zunehmend, dass die Tool-Vielfalt Organisationen langsamer bei der Erkennung und Reaktion auf Bedrohungen macht. Gleichzeitig beschleunigt KI beide Seiten der Gleichung: Sie gibt Verteidigern neue Fähigkeiten an die Hand und macht es für Angreifer dramatisch einfacher, im großen Stil zu agieren.
Seit über zwanzig Jahren schützt Barracuda Organisationen vor sich entwickelnden Bedrohungen mit seiner BarracudaONE Cybersecurity-Plattform, die die Cyber-Resilienz maximiert, indem sie den Schutz über E-Mail, Daten, Netzwerke, Anwendungen und Managed XDR vereinheitlicht. Barracuda nutzt Databricks für seine Enterprise Data Platform, um fragmentierte Datensilos zu konsolidieren und ML-Operationen, Echtzeit-Bedrohungs Korrelation und Business Intelligence zu ermöglichen. Mit Databricks Genie entwickelte und startete das Team schnell Funktionen wie die natürlichsprachliche Protokollsuche für seine Managed XDR-Lösung, die es Kunden ermöglicht, Milliarden von Sicherheitsereignissen in einfacher Sprache abzufragen und gleichzeitig eine strikte Datenisolation aufrechtzuerhalten.
Neal Bradbury ist Chief Product Officer bei Barracuda und verantwortlich für Produktmanagement, Engineering, Sicherheit und Cloud-Betrieb. Er hat die Verlagerung hin zu dem geleitet, was Barracuda als AI-native Produktentwicklung bezeichnet, bei der Intelligenz in den Kern jeder Anwendung integriert wird, anstatt als Schnittstelle obendrauf gesetzt zu werden.
Der rote Faden unserer Unterhaltung war konsistent: In einer Ära, in der Angreifer im großen Stil agieren, sind die Verteidiger, die mit KI gewinnen, diejenigen, die ihre proprietären Sicherheitstelemetriedaten als strategischen Vermögenswert behandeln. Sie fügen nicht nur KI-Tools hinzu; sie integrieren Intelligenz direkt in die Datenebene, um sich weiterentwickelnden Bedrohungen einen Schritt voraus zu sein.
Aly McGue: Wie definieren Sie eine "AI-native Anwendung" in Ihrem Unternehmen im Gegensatz zu einer traditionellen Anwendung? Was ist der strategische Unterschied für das Kundenerlebnis?
Neal Bradbury: Für uns bedeutet AI-native, dass es integriert und nicht aufgesetzt ist. Die Anwendung muss mit KI im Kern entwickelt werden. In der Sicherheit bedeutet dies, dass Beobachtbarkeit, Governance, Zugriffskontrollen und Durchsetzung von Anfang an integriert sind. Wir haben unseren Bailey AI Assistant, aber der Kern unserer Anwendungen, sei es unsere WAF oder unser E-Mail-Schutz, ist auf seiner Grundlage AI-native.
Der andere große Unterschied ist, dass sich AI-native Anwendungen kontinuierlich anpassen. Eine traditionelle Anwendung wird auf eine bestimmte Weise erstellt und funktioniert so, bis jemand sie ändert. Eine AI-native Anwendung ist dynamischer. Sie reagiert auf sich ändernde Kundendaten, sich ändernde Bedürfnisse und sich ändernde Ziele. Sie trifft den Kunden dort, wo er sich gerade befindet, während sich die Dinge weiterentwickeln, was eine große Rolle spielt, wenn sich die Landschaft so schnell verändert wie jetzt.
In unserem Fall sammeln wir Bedrohungen und Risiken von Kunden über die BarracudaONE-Plattform. Jeder Kunde hat ein anderes Risikoprofil. Jeder Kunde benötigt unterschiedliche Prioritäten bei Bedrohungen. Daher kann es nicht starr sein. Das ist wirklich der strategische Unterschied: Eine AI-native Lösung passt sich an jeden Kunden an, anstatt alle auf denselben deterministischen Weg zu zwingen.
Aly: Was war nötig, um Ihr Kernprodukt neu zu gestalten und AI-native Funktionen wie Personalisierung, Empfehlungs-Engines oder Copilot-Tools zu integrieren?
Neal: Ich würde unsere Managed XDR-Lösung als Beispiel nehmen. Wir mussten den Fokus und den Zweck dieses Angebots wirklich hinterfragen und dann rückwärts arbeiten. Welches Problem lösen wir tatsächlich? Welches Ergebnis liefern wir für den Kunden? Jeder Produktmanager sollte dort beginnen, aber es wird noch wichtiger, wenn man KI integriert, da die Architektur entscheidungen, die man frühzeitig trifft, bestimmen, was später möglich ist.
Der grundlegende Schritt war die Organisation der Datenebene. Wenn Ihre Daten überall verstreut sind oder das Schema nicht gemeinsam genutzt wird, verursacht dies nachgelagert Probleme für alles. Die Normalisierung des Schemas ermöglichte es unseren Machine-Learning-Modellen und Agenten, den vollen Kontext über Domänen hinweg zu erfassen und tatsächlich das zu tun, was wir von ihnen verlangten.
Wir waren auch diszipliniert, kleine Schritte zu machen. Wir haben nicht versucht, alles auf einmal zu migrieren. Wir haben mit kleinen Teilen begonnen, iteriert und uns dem Gesamtergebnis genähert. Man kann es schicker beschreiben, aber es war: Verstehen Sie, was das Ergebnis sein muss, und arbeiten Sie sich dann dorthin vor.
Was aus diesem Prozess hervorging, war die Echtzeit-Streaming-Erkennung mit Notebooks, ML-Operationen über MLflow und mehrere Machine-Learning-Modelle mit über 30 Merkmalen, die sich kontinuierlich verbessern. Und das Aufregende ist, dass wir dieses gleiche Plattformmuster auf andere Produkte ausgedehnt haben: unser WAF-as-a-Service, unsere automatisierte Konfigurations-Engine, API-Sicherheit und erweiterter Bot-Schutz. Die Investition zahlt sich also aus.
Aly: Wie haben Sie Produkt-, Data-Science- und Engineering-Teams erfolgreich darauf ausgerichtet, von einer gemeinsamen Daten- und KI-Plattform aus zu arbeiten, um die Markteinführungszeit für diese Funktionen zu beschleunigen?
Neal: Ich werde wie eine kaputte Schallplatte klingen, aber es kam wirklich darauf an, zuerst gemeinsame Ergebnisse zu definieren. Nehmen Sie unsere Impersonation Protection-Funktion in Barracuda Email Protection, die Kunden vor fortgeschrittenen Angriffen schützt. Das Ergebnis war nicht einfach, aber es war klar. Und diese Klarheit bedeutete, dass die Teams auf ein einheitliches Ziel hinarbeiten konnten, ohne sich in Tool-Debatten zu verlieren. Wir hatten Databricks als Plattform, wir hatten ein Ziel und wir konnten einfach ausführen.
Die gleiche Logik gilt, wenn wir mit nicht-technischen Funktionen zusammenarbeiten. Als wir die Abwanderungsreduzierung angegangen sind, benötigten wir Kundeninformationen, Produkttelemetrie und Verkaufsdaten. Die Möglichkeit, all das auf einer einzigen Enterprise Data Platform zusammenzuführen und tatsächlich funktionsübergreifende Erkenntnisse zu gewinnen, war der Auslöser für die Ausrichtung. Es war kein Mandat von oben. Es war ein gemeinsames Ergebnis, das jeder sehen und messen konnte. Das bewegt die Leute.
Aly: Wie verschafft Ihnen die Entwicklung von AI-nativen Anwendungen auf Ihrer eigenen Datenebene einen tieferen, besser verteidigbaren Wettbewerbsvorteil im Vergleich zur ausschließlichen Nutzung externer SaaS-Modelle?
Neal: Ihre eigene Datenebene ist der Differenzierungsfaktor. Punkt. KI-Agenten sind nur so stark wie die proprietären, kontextreichen Daten, auf die sie zugreifen können. Wenn Sie auf Ihrer vereinheitlichten Sicherheitstelemetrie aufbauen, schaffen Sie einen Vorteil, den generische SaaS-Modelle einfach nicht replizieren können.
Da wir auf unseren eigenen Daten aufbauen, können wir für die spezifische Telemetrie und die Erkenntnisse, die wir aus dem gesamten Sicherheitspaket gewinnen, anpassen. Das ermöglicht es uns, gezielte Empfehlungen zu geben und Entscheidungen gemeinsam mit unseren Kunden zu treffen, auf eine Weise, wie es ein Einheitsmodell von externen SaaS-Anbietern niemals könnte.
Ich denke darüber so nach: Ein AI-natives Produkt kann kundenspezifische Bereitstellungs- und Verhaltenskontexte nutzen, um sich anzupassen und zu reagieren, auf eine Weise, wie es eine externe SaaS-KI einfach nicht kann. Und dieser Vorteil vervielfacht sich. Je mehr Daten durch das System fließen, desto besser wird es darin, die einzigartige Umgebung jedes Kunden zu verstehen. Niemand kann sich hier einen Vorteil verschaffen.
Am deutlichsten wurde in diesem Gespräch, dass AI-Native eine architektonische Verpflichtung ist, kein Feature-Label. Neal zieht eine klare Linie zwischen Produkten, bei denen KI von Grund auf konzipiert ist, und Produkten, die eine intelligente Schnittstelle auf ein traditionelles System aufsetzen. Der Unterschied zeigt sich darin, wie dynamisch sich das Produkt anpasst, wie gut es proprietäre Kontexte nutzt und wie gut das Ergebnis im Laufe der Zeit verteidigbar ist.
Für Führungskräfte, die ihre eigenen Produktstrategien bewerten, ist die Frage, über die es sich nachzudenken lohnt: Ist Intelligenz in den Kern dessen integriert, was Sie liefern, oder ist sie obendrauf gelegt? Die Antwort bestimmt nicht nur, was Ihr Produkt heute leisten kann, sondern auch, wie schnell es sich weiterentwickeln kann, wenn sich die Landschaft wieder verschiebt.
Um mehr über den Aufbau eines effektiven Betriebsmodells zu erfahren, laden Sie das Databricks AI Maturity Model herunter.
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag
Abonnieren Sie unseren Blog und erhalten Sie die neuesten Beiträge direkt in Ihren Posteingang.