KI und Machine Learning
Ihre KI-Projekte mit einem datenzentrierten Ansatz für Machine Learning beschleunigen
Mit Databricks tiefer in KI und Machine Learning eintauchen

KI und Machine Learning von Databricks basiert auf einer offenen Lakehouse-Architektur. Die Lösung unterstützt ML-Teams bei der Aufbereitung und Verarbeitung von Daten, optimiert die teamübergreifende Zusammenarbeit und standardisiert den gesamten Lebenszyklus von der Experimentierphase bis zur Produktion, einschließlich generativer KI und Large Language Models.

$6M+ an Einsparungen
CONA Services verwendet Databricks für den gesamten ML-Lebenszyklus, um die Lieferkette für Hunderttausende von Geschäften zu optimieren.

3,9 Millionen Real an Einsparungen
Via nutzt maschinelles Lernen, um die Nachfrage genau zu prognostizieren und die Rechenkosten um 25 % zu senken.

Über 50 Mio. $ Kostensenkung
Amgen verbessert die datenwissenschaftliche Zusammenarbeit, um die Arzneimittelforschung zu beschleunigen und Betriebskosten zu sparen.
.png)
Alle Datenaspekte für KI und ML vereinfachen
Da Databricks ML auf einer offenen Lakehouse-Grundlage mit Delta Lake aufsetzt, ermöglichen Sie es Ihren Machine-Learning-Teams damit, auf Daten jeglichen Typs und Umfangs zuzugreifen, sie zu untersuchen und aufzubereiten. Verwandeln Sie Funktionen in Produktionspipelines mit Self-Service-Unterstützung, ohne auf den Support Ihrer Data Engineers angewiesen zu sein.

Tracking und Governance für Experimente automatisieren
Managed MLflow verfolgt Ihre Experimente automatisch und protokolliert Parameter, Kennzahlen, die Versionierungen von Daten und Code sowie Modellartefakte bei jedem Trainingsdurchlauf. Sie können frühere Durchläufe unkompliziert einsehen, Ergebnisse vergleichen und frühere Resultate nach Bedarf reproduzieren. Sobald Sie die für die Produktion am besten geeignete Modellversion ermittelt haben, registrieren Sie sie in der Modellregistrierung, um die Übergabe während des Bereitstellungslebenszyklus einfacher zu gestalten.

Den gesamten Modelllebenszyklus von den Daten bis zur Produktion und zurück verwalten
Nach der Registrierung der trainierten Modelle können Sie sie mit der Modellregistrierung während des gesamten Lebenszyklus kollaborativ verwalten. Modelle können versioniert werden und verschiedene Stadien durchlaufen, z. B. Experimentieren, Staging, Produktion und Archivierung. Das Lebenszyklusmanagement lässt sich in Genehmigungs- und Governance-Workflows mit rollenbasierter Zugriffskontrolle integrieren. Kommentare und E-Mail-Benachrichtigungen ermöglichen eine intensive Zusammenarbeit der Datenteams.

ML-Modelle in großem Umfang mit niedriger Latenz bereitstellen
Stellen Sie Modelle mit einem einzigen Klick bereit, ohne sich um Serververwaltung oder Skalierungseinschränkungen kümmern zu müssen. Mit Databricks können Sie Ihre Modelle überall als REST-API-Endpunkte mit Verfügbarkeit auf Unternehmensniveau bereitstellen.

Generative KI und Large Language Models verwenden
Integrieren Sie vorhandene vortrainierte Modelle – wie die aus der Hugging Face Transformers Library oder anderen Open-Source-Bibliotheken – in Ihren Workflow. Transformer-Pipelines vereinfachen die Verwendung von GPUs und ermöglichen das Batching von Elementen, die an die GPU gesendet werden, um einen besseren Durchsatz zu erzielen.
Passen Sie ein Modell an Ihre Daten für Ihre spezifische Aufgabe an. Mit der Unterstützung von Open-Source-Tools wie Hugging Face und DeepSpeed können Sie schnell und effizient ein grundlegendes LLM erstellen und mit dem Training mit Ihren eigenen Daten beginnen, um mehr Genauigkeit für Ihren Fachbereich und Workload zu erzielen. Dadurch haben Sie auch die Kontrolle über die für das Training verwendeten Daten, sodass Sie sicherstellen können, dass Sie KI verantwortungsvoll einsetzen.
Produktkomponenten

Kollaborative Notebooks
Databricks Notebooks unterstützen Python, R, SQL und Scala nativ, d. h., Anwender können unter Verwendung der Sprachen und Bibliotheken ihrer Wahl zusammenarbeiten, um aussagekräftige Erkenntnisse zu gewinnen, zu visualisieren und zu teilen.

Machine Learning Runtime
1-Klick-Zugriff auf vorkonfigurierte und ML-optimierte Cluster, die auf einer skalierbaren und zuverlässigen Verteilung der gängigsten ML-Frameworks (wie PyTorch, TensorFlow und scikit-learn) basieren – mit integrierten Optimierungen für unübertroffene Leistung auch bei enormen Datenmengen.

Feature-Store
Vereinfachen Sie die Wiederverwendung von Funktionen mit einer auf der Datenherkunft basierenden Funktionenssuche, die automatisch protokollierte Datenquellen heranzieht. Stellen Sie Funktionen für Training und Bereitstellung mit einer vereinfachten Modellbereitstellung zur Verfügung, für die keine Änderungen an der Client-Anwendung erforderlich sind.

AutoML
Ermöglichen Sie allen Akteuren vom ML-Experten bis hin zum Citizen Data Scientist die Mitwirkung. Hierzu wurde ein „Glass-Box-Ansatz“ für AutoML implementiert, der nicht nur das leistungsstärkste Modell bereitstellt, sondern auch Code zur weiteren Optimierung durch Experten erzeugt.

Managed MLflow
Managed MLflow baut auf MLflow, der weltweit führenden Open-Source-Plattform für den ML-Lebenszyklus, auf und hilft beim schnellen Überführen von ML-Modellen aus der Experimentierphase in die Produktion – mit Sicherheit, Zuverlässigkeit und Skalierbarkeit auf Unternehmensniveau.

Bereitstellen von produktionsbereiten Modellen
Stellen Sie Modelle in jeder Größenordnung mit einem Klick zur Verfügung, mit der Option, serverloses Computing zu nutzen.

Modellüberwachung
Überwachen Sie die Modellleistung und wie sie sich in Echtzeit auf Geschäfts-Metrics auswirkt. Databricks bietet durchgängige Transparenz und Herkunft von Modellen in der Produktion bis hin zu Quelldatensystemen und hilft dabei, die Modell- und Datenqualität über den gesamten ML-Lebenszyklus hinweg zu analysieren und Probleme zu lokalisieren, bevor sie schädliche Auswirkungen haben.

Repositorys
Mithilfe von Repositorys können Engineers Git-Workflows in Databricks nachstellen und Datenteams so die Nutzung automatisierter CI/CD-Workflows und das Portieren von Code ermöglichen.
Große Sprachmodelle
Mit Databricks können Sie ganz einfach auf diese LLMs zugreifen, um sie in Ihre Workflows zu integrieren. Außerdem bietet die Plattform Funktionen zur Feinabstimmung von LLMs anhand Ihrer eigenen Daten, wodurch die Performance im jeweiligen Fachbereich verbessert wird.