Direkt zum Hauptinhalt

Photon

Die nächste Generation für das Lakehouse

Photon

Photon ist die Engine der nächsten Generation in der Databricks Lakehouse-Plattform, die eine extrem schnelle Abfrageleistung zu niedrigeren Kosten bietet – Dateneingabe, ETL, Streaming, Data Science und interaktive Abfragen – direkt in Ihrem Data Lake. Photon ist mit Apache Spark™-APIs kompatibel, sodass der Einstieg so einfach ist wie das Einschalten – keine Codeänderungen und keine Anbieterbindung.

secondary-icon-graphic-28

Billiger und schneller

Photon wurde von Grund auf für die schnellste Leistung bei geringeren Kosten entwickelt und bietet Einsparungen von bis zu 80 % bei den Gesamtbetriebskosten (TCO) bei gleichzeitiger bis zu 12-facher Beschleunigung von Daten- und Analytics-Workloads.

secondary-icon-graphic-7.

Für alle Anwendungsfälle konzipiert

Photon ist die erste Engine, die es Datenteams ermöglicht, einen Satz von APIs für alle Workloads – ETL, Analytics und Data Science – im Batch- oder Streaming-Modus zu standardisieren.

Icon Graphic

Keine Codeänderungen

Photon ist eine ANSI-konforme Engine, die so konzipiert ist, dass sie mit modernen Apache Spark-APIs kompatibel ist und einfach mit Ihrem vorhandenen Code funktioniert – SQL, Python, R, Scala und Java. Es muss kein Code umgeschrieben werden.

Warum Photon?

Die Abfrageleistung in Databricks hat sich im Laufe der Jahre stetig erhöht, unterstützt von Apache Spark und Tausenden von Optimierungen, die als Teil der Databricks Runtimes (DBR) bereitgestellt wurden. Photon, eine neue native vektorisierte Engine, die vollständig in C++ geschrieben ist, bietet eine zusätzliche 2-fache Beschleunigung pro TPC-DS-Benchmark (1 TB). Kunden haben basierend auf ihren Workloads im Vergleich zu den neuesten DBR-Versionen durchschnittlich 3- bis 8-fache Beschleunigungen beobachtet.

Anwendungsfälle

Icon

PRODUKTIONS-JOBS

Umfangreiche Produktionsaufträge auf SQL- und Spark-DataFrames beschleunigen

Icon

IoT-Anwendungen

Schnellere Zeitreihenanalyse mit Photon im Vergleich zu Spark und herkömmlicher Databricks Runtime

Icon

Datenschutz und Compliance

Abfragen im Petabyte-Bereich, um Datensätze zu identifizieren und zu löschen, ohne Daten in Delta Lake, Produktionsjobs und Photon zu duplizieren

Icon

Laden von Daten in Delta Lake und Parquet

Das vektorisierte I/O von Photon beschleunigt das Laden von Daten für Delta Lake- sowie Parquet-Tabellen und senkt die Gesamtlaufzeit und die Kosten für Data-Engineering-Jobs.

Wie funktioniert es?

Bestes Preis-Leistungs-Verhältnis bei Analysen in der Cloud

Von Grund auf in C++ geschrieben nutzt Photon moderne Hardware für schnellere Abfragen und bietet ein bis zu 12-mal besseres Preis-Leistungs-Verhältnis im Vergleich zu anderen Cloud Data Warehouses – alles nativ in Ihrem Data Lake.

Funktioniert mit Ihrem vorhandenen Code und umgeht eine Anbieterbindung

Photon ist so konzipiert, dass es mit Apache Spark DataFrame und SQL-APIs kompatibel ist, um sicherzustellen, dass Workloads nahtlos und ohne Codeänderungen ausgeführt werden. Alles, was Sie tun müssen, um von Photon zu profitieren, ist die Engine einzuschalten. Photon wird Arbeit und Ressourcen nahtlos koordinieren und Teile Ihrer SQL- und Spark-Abfragen transparent beschleunigen. Keine Feinabstimmung und kein Benutzereingriff erforderlich.

Optimieren aller Datenanwendungsfälle und Workloads

Während wir uns zu Beginn mit Photon in erster Linie auf SQL konzentriert hatten, um unseren Kunden eine erstklassige Data-Warehousing-Leistung für ihre Data Lakes zu bieten, haben wir seither den Umfang der von Photon unterstützten Aufnahmequellen, Formate, APIs und Methoden erheblich erweitert. Infolgedessen haben Kunden mit Photon enorme Einsparungen bei den Infrastrukturkosten und Beschleunigungen in all ihren modernen Spark-Workloads (z. B. Spark SQL und DataFrame) festgestellt.

Ressourcen

Möchten Sie loslegen?