Machine Learning Runtime

Die sofort einsatzbereite und optimierte Machine-Learning-Umgebung

Die Machine Learning Runtime (MLR) bietet Data Scientists und ML-Anwendern skalierbare Cluster mit gängigen Frameworks, integriertem AutoML und Optimierungen – und damit unerreichte Performance.

Vorteile

FRAMEWORKS NACH WUNSCH

ML Frameworks are evolving at a frenetic pace and practitioners need to manage on average 8 libraries. The ML Runtime provides one-click access to a reliable and performant distribution of the most popular ML frameworks, and custom ML environments via pre-built containers.

AUGMENTIERTES MACHINE LEARNING

Beschleunigen Sie das Machine Learning von der Datenvorbereitung bis zur Schlussfolgerung mit den integrierten AutoML-Funktionen, einschließlich Hyperparameter-Tuning und Modellsuche mit Hyperopt und MLflow.

VEREINFACHTE SKALIERUNG

Mit einer automatisch verwalteten und skalierbaren Cluster-Infrastruktur können Sie mühelos von kleinen zu großen Datenmengen wechseln. Machine Learning Runtime enthält auch einzigartige Leistungsverbesserungen für die gängigsten Algorithmen sowie HorovodRunner, eine einfache API für verteiltes Deep Learning.

Funktionen

FRAMEWORKS NACH WUNSCH

ML-Frameworks: Die beliebtesten ML-Bibliotheken und -Frameworks, einschließlich TensorFlow, Keras, PyTorch, MLflow, Horovod, GraphFrames, ScikitLearn, XGboost, Numpy, MLeap und Pandas, werden standardmäßig bereitgestellt.

AUGMENTIERTES ML

Verfolgung automatisierter Experimente: Verfolgen, vergleichen und visualisieren Sie Hunderttausende von Experimenten mit Open Source oder Managed MLflow und der Funktion zur Darstellung paralleler Koordinaten.

Automatisierte Modellsuche (für Single-Node-ML): Optimierte und verteilte bedingte Hyperparametersuche über mehrere Modellarchitekturen mit erweitertem Hyperopt und automatisiertem Tracking für MLflow.

Automatisiertes Hyperparameter-Tuning für Single-Node-Machine-Learning: Optimierte und verteilte Hyperparametersuche mit erweitertem Hyperopt und automatisiertem Tracking für MLflow.

Automatisiertes Hyperparameter-Tuning für verteiltes Machine Learning: Tiefe Integration in die Cross Validation von PySpark MLlib zur automatischen Verfolgung von MLlib-Experimenten in MLflow.

OPTIMIERT FÜR VEREINFACHTE SKALIERUNG

TensorFlow optimiert: Profitieren Sie von der CUDA-optimierten Version von TensorFlow auf GPU-Clustern für maximale Leistung.

HorovodRunner: Rüsten Sie schnell und unkompliziert Ihren Deep Learning-Trainingscode für Einzelknoten auf – damit er über HorovodRunner in einem Databricks-Cluster laufen kann. HorovodRunner ist eine einfache API, die Komplikationen, die bei der Verwendung von Horovod für verteiltes Training entstehen, abstrahieren kann.

Optimierte logistische Regression und Baumklassifizierung für MLlib: Zu Databricks Runtime für Machine Learning gehört auch die Optimierung der bekanntesten Estimators. Im Vergleich mit Apache Spark 2.4.0, können Sie hier nun eine um bis zu 40 Prozent höhere Geschwindigkeit erzielen.

Optimierte GraphFrames: Führen Sie GraphFrames zwei- bis viermal schneller aus und profitieren Sie von einer bis zu 100-fachen Beschleunigung bei Graph-Abfragen – je nach Workloads und Datenintegrität.

Optimized Storage for Deep Learning Workloads: Leverage high-performance solutions on Azure, AWS, and GCP for data loading and model checkpointing, both of which are critical to deep learning training workloads.

Wie es funktioniert

Machine Learning Runtime baut auf Databricks Runtime auf. Mit jeder neuen Version von Databricks Runtime erhält es dementsprechend auch ein Update. Erhältlich ist es für die gesamte Databricks-Produktpalette wie Azure Databricks, AWS-Cloud, GPU-Cluster und CPU-Cluster.

Wenn Sie ML Runtime nutzen möchten, wählen Sie beim Erstellen Ihres Clusters einfach die ML-Version von Runtime aus.

Kundenberichte

Sehen Sie sich den Spark + AI Summit Talk an.

Simplify Distributed TensorFlow Training for Fast Image Categorization at Starbucks

Möchten Sie loslegen?


Folgen Sie der Kurzanleitung