Veröffentlicht: 11. Juni 2025
von Hanlin Tang, Akhil Gupta, Patrick Wendell und Naveen Rao
Letztes Jahr haben wir Data Intelligence – KI, die auf Ihren Unternehmensdaten aufbauen kann – mit der Einführung des Databricks Mosaic AI Stacks für die Erstellung und Bereitstellung von Agentensystemen vorgestellt. Seitdem haben Tausende von Kunden KI in die Produktion gebracht. Dieses Jahr auf dem Data and AI Summit freuen wir uns, mehrere wichtige Produkte anzukündigen:
Agent Bricks ist eine neue Methode, um qualitativ hochwertige Agenten zu erstellen, die automatisch auf Ihren Daten optimiert werden. Geben Sie einfach eine grobe Beschreibung der Aufgabe des Agenten an und verbinden Sie Ihre Unternehmensdaten – Agent Bricks erledigt den Rest. Agent Bricks ist für gängige Anwendungsfälle optimiert, darunter die Extraktion strukturierter Informationen, zuverlässige Wissensunterstützung, benutzerdefinierte Texttransformationen und die Erstellung von Multi-Agenten-Systemen. Wir nutzen die neuesten Erkenntnisse aus der Agentenforschung des Databricks Mosaic AI-Forschungsteams, um automatisch Auswertungen zu erstellen und die Agentenqualität zu optimieren. Weitere Details finden Sie im ausführlichen Blogbeitrag über Agent Bricks.
Wir veröffentlichen MLflow 3, das von Grund auf für Generative KI neu konzipiert wurde und die neuesten Funktionen für Monitoring, Evaluierung und Lifecycle-Management bietet. Mit MLflow 3 können Sie jetzt Agenten überwachen und beobachten, die überall bereitgestellt werden, auch außerhalb von Databricks. Agenten, die auf AWS, GCP oder sogar lokalen Systemen bereitgestellt werden, können jetzt mit MLflow 3 für die Agenten-Observability verbunden werden.
MLflow 3 enthält auch eine Prompt-Registry, mit der Sie verschiedene LLM-Prompts für Ihre Agentensysteme registrieren, versionieren, testen und bereitstellen können.
AI Functions ermöglichen es Benutzern, die Leistung von generativer KI direkt aus SQL heraus zu nutzen. Dieses Jahr freuen wir uns, Ihnen mitteilen zu können, dass AI Functions dramatische Leistungsverbesserungen und erweiterte multimodale Fähigkeiten erhalten haben. AI Functions sind jetzt bis zu 3x schneller und 4x kostengünstiger als bei anderen Anbietern für Workloads im großen Maßstab, sodass Sie Datenumwandlungen im großen Maßstab mit beispielloser Geschwindigkeit verarbeiten können.
Über die Leistung hinaus unterstützen AI Functions jetzt multimodale Fähigkeiten, sodass Sie nahtlos mit Text, Bildern und anderen Datentypen arbeiten können. Neue Funktionen wie ai_parse_document erleichtern die Extraktion strukturierter Informationen aus komplexen Dokumenten und erschließen Einblicke aus bisher schwer zu verarbeitenden Unternehmensinhalten.
Mosaic AI Vector Search bildet das Rückgrat vieler Retrieval-Systeme, insbesondere von RAG-Agenten, und unser Vector Search-Produkt ist eines der am schnellsten wachsenden Produkte bei Databricks. Wir haben die Infrastruktur von Grund auf neu geschrieben, mit dem Prinzip der Trennung von Compute und Storage. Unsere neue speicheroptimierte Vektorsuche kann Milliarden von Vektoren skalieren und liefert dabei 7x niedrigere Kosten. Dieser Durchbruch macht es wirtschaftlich machbar, hochentwickelte RAG-Anwendungen und semantische Suchsysteme über Ihr gesamtes Daten-Estate hinweg zu erstellen. Ob Sie Chatbots für den Kundensupport betreiben oder erweiterte Dokumentenentdeckung ermöglichen, Sie können jetzt ohne prohibitive Kosten skalieren. Sehen Sie sich unseren detaillierten Blogbeitrag für technische Details und Leistungsbenchmarks an.
Wir kündigen einen großen Schritt nach vorne im Bereich Serverless Compute mit der Einführung der GPU-Unterstützung auf der Databricks Serverless-Plattform an. GPU-gestützte KI-Workloads sind jetzt zugänglicher als je zuvor, da dieser vollständig verwaltete Dienst die Komplexität der GPU-Verwaltung eliminiert. Ob Sie Modelle trainieren, Inferenz durchführen oder Daten im großen Maßstab transformieren, AI Runtime bietet die Leistung, die Sie benötigen, ohne den operativen Aufwand. Vollständig in die Databricks-Plattform integriert, ermöglicht AI Runtime den On-Demand-Zugriff auf A10g (heute Beta) und H100s (bald verfügbar), ohne an langfristige Reservierungen gebunden zu sein. Führen Sie Notebooks auf Serverless-GPUs aus und übermitteln Sie sie als Jobs, mit der vollständigen Governance von Unity Catalog.
Enterprise-KI-Anwendungen erfordern heute erhöhten Durchsatz und geringere Latenzzeiten für die Produktionsreife. Unsere verbesserte Model Serving-Infrastruktur unterstützt jetzt über 250.000 Abfragen pro Sekunde (QPS). Bringen Sie Ihre Echtzeit-Online-ML-Workloads zu Databricks und lassen Sie uns die Infrastruktur- und Zuverlässigkeitsherausforderungen bewältigen, damit Sie sich auf die KI-Modellentwicklung konzentrieren können.
Für LLM Serving haben wir in allen Regionen eine neue proprietäre Inhouse-Inferenz-Engine eingeführt. Die Inferenz-Engine enthält viele unserer privaten Innovationen und benutzerdefinierten Kernel, um die Inferenz von Meta Llama und anderen Open-Source-LLMs zu beschleunigen. Bei gängigen Workloads ist unsere Inferenz-Engine bis zu 1,5x schneller als korrekt konfigurierte Open-Source-Engines wie vLLM-v1. Zusammen mit dem Rest unserer LLM Serving-Infrastruktur bedeuten diese Innovationen, dass das Serving von LLMs auf Databricks einfacher, schneller und oft kostengünstiger ist als DIY-Serving-Lösungen.
Von Chatbots bis hin zu Empfehlungssystemen können Ihre KI-Dienste jetzt skaliert werden, um selbst die anspruchsvollsten Unternehmens-Workloads zu bewältigen.
Anthropic's Model Context Protocol (MCP) ist ein beliebtes Protokoll zur Bereitstellung von Tools und Wissen für große Sprachmodelle. Wir haben MCP jetzt direkt in die Databricks-Plattform integriert. MCP-Server können mit Databricks Apps gehostet werden, was eine nahtlose Möglichkeit bietet, MCP-konforme Dienste ohne zusätzliche Infrastrukturverwaltung bereitzustellen und zu verwalten. Sie können MCP-fähige Modelle direkt in unserer Playground-Umgebung interagieren und testen, was das Experimentieren mit verschiedenen Modellkonfigurationen und -fähigkeiten erleichtert.
Darüber hinaus können Sie jetzt Ihre Agenten mit Databricks verbinden, indem Sie Databricks-gehostete MCP-Server für UC-Funktionen, Genie und Vector Search einführen. Weitere Informationen finden Sie in unserer Dokumentation.
Agent Bricks AI Gateway ist jetzt allgemein verfügbar. Dieser einheitliche Einstiegspunkt für alle Ihre KI-Dienste bietet zentralisierte Governance, Nutzungs-Logging und Kontrolle über Ihr gesamtes KI-Anwendungsportfolio. Wir haben auch eine Reihe neuer Funktionen hinzugefügt, von der automatischen Fallback-Funktion zwischen verschiedenen Anbietern bis hin zu PII- und Sicherheits-Guardrails. Mit AI Gateway können Sie Ratenbegrenzungsrichtlinien implementieren, die Nutzung verfolgen und Sicherheits-Guardrails für KI-Workloads durchsetzen, unabhängig davon, ob sie auf Databricks oder über externe Dienste ausgeführt werden.
Diese Ankündigungen stellen unser fortwährendes Engagement dar, Enterprise AI zugänglicher, leistungsfähiger und kostengünstiger zu machen. Jede Innovation baut auf unserer Data Intelligence-Plattform auf und stellt sicher, dass Ihre KI-Anwendungen die volle Leistung Ihrer Unternehmensdaten nutzen können, während gleichzeitig die Governance- und Sicherheitsstandards eingehalten werden, die Ihr Unternehmen benötigt.
Sind Sie bereit, diese neuen Funktionen zu erkunden? Beginnen Sie mit unserem kostenlosen Tarif oder wenden Sie sich an Ihren Databricks-Vertreter, um zu erfahren, wie diese Innovationen Ihre KI-Initiativen beschleunigen können.
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag
