Direkt zum Hauptinhalt
Kundenbericht

Digitalisierung der Solaranlagen zur Förderung der betrieblichen Exzellenz

90%

Kosteneinsparungen

15-faches

Wachstum der verarbeiteten Daten

ANWENDUNGSFALL DER PLATTFORM: Lakehouse,Delta Lake,Data Science,etl
Cloud: Azure

„Dank der Skalierbarkeit der Databricks Lakehouse-Architektur sind wir jetzt in der Lage, die Erkenntnisse aus all unseren Daten zu nutzen, um Kunden proaktiv über potenzielle Leistungsprobleme zu informieren, bevor sie direkt betroffen sind.“

– Steffen Mangold, CTO, Solytic

Solytic, ein Unternehmen, das Solaranlagen überwacht und deren Daten analysiert, hat ein Ziel: die Nutzung von Solarenergie für jedermann zu vereinfachen. Die Lösungen des Anbieters sollen Beteiligte dabei unterstützen, intelligente, datengestützte Entscheidungen in Echtzeit zu treffen, indem sie KI verwenden, um Prozesse zu automatisieren, die Produktion zu optimieren und Kosten während des gesamten Lebenszyklus von Anlagen zu senken. Angesichts steigender Datenmengen boten die veralteten Systeme von Solytic jedoch nicht die Datenzuverlässigkeit oder Skalierbarkeit, die für umfangreiche analytische Workloads erforderlich sind. Die Databricks Lakehouse-Plattform ermöglicht es den Data-Analytics-Teams, die Leistung von Solaranlagen zu überwachen und Probleme einzugrenzen, bevor sie sich auf Kunden auswirken.

Wenn schnelles Wachstum auf veraltete Technologie trifft

Energiebewusstsein wird heutzutage für Unternehmen wie auch Einzelpersonen genauso wichtig wie ihr Gesundheitsbewusstsein. Dies sind großartige Neuigkeiten für Unternehmen wie Solytic, das sich auf die Überwachung und Analyse von Solaranlagen für Kunden spezialisiert hat, die von kleinen Privatkunden bis hin zu den größten industriellen Solaranlagen reichen. Ohne die richtigen Tools war ein derartig explosionsartig vermehrtes Interesse nur schwer zu meistern.

Durch mehrerer neue Großkunden sah sich Solytic einem Anstieg des Datenvolumens um 1.500 % gegenüber, das von den IoT-Sensoren in Solarmodulen generiert wurde. Die vorhandenen Lösungen des Unternehmens waren nicht skalierbar, erlaubten keine Zusammenarbeit zwischen Teams, konnten keine Daten ohne Aufbewahrungszeit speichern und boten keinen Zugriff auf umfangreiche Analyse-Workloads – und das lineare Kostenwachstum machte ihre Wartung außerordentlich teuer.

Mit mehr als 1 Milliarde eingehender Ereignisse pro Tag musste das Unternehmen mit dem Wechsel zu einer modernen Plattform beginnen, indem es die Verarbeitung von Daten in einem Data Lake trennte, ohne den Speicher zu vergrößern. Außerdem mussten 1 TB an historischen Daten auf eine neue Plattform migriert werden. Solytic wandte sich daher an Databricks.

Die enormen Vorteile der Vereinheitlichung von Daten und der Nutzung von KI

Um Kunden schnell genaue Einblicke in ihre Photovoltaikanlagen zu geben, musste Solytic schnell mehrere Herausforderungen angehen. Erstens benötigte der Anbieter eine Möglichkeit, eingehende Datenströme zu bereinigen, anzureichern und zu aggregieren, um schnelle Abfragen und Analysen zu ermöglichen. Mit mehr als 10.000 Ereignissen, die pro Sekunde von IoT-Panels eingehen, zusammen mit einer großen Streuung der Granularität, unterschiedlicher Datenqualität und verzögerten Daten, benötigte das Unternehmen eine einheitliche Lösung, die all diese Probleme auf einer Plattform lösen konnte.

Die Databricks Lakehouse-Plattform auf Azure hat genau das getan – schnell und effizient. Während die Ausführung einer großen Abfrage auf der alten Datenbank das System völlig überfordert hätte, konnte Solytic mit Delta Lake alle seine Daten vereinheitlichen, ohne Unterbrechung skalieren und zuverlässige und leistungsstarke ETL-Pipelines erstellen. Auf diese Weise konnten sie ihren Anforderungen an Data Analytics nachkommen. Delta Lake ist eine formatunabhängige Speicherebene, die in einem Delta Lake für Leistung, Sicherheit und Zuverlässigkeit sorgt – im Streaming- wie auch im Batch-Betrieb.

Ein zweites Ziel bei Solytic war es, einen Weg zu finden, wie die Data Engineers und Data-Analytics-Teams effizienter zusammenarbeiten können. Mit der vollständig verwalteten Cloud-Infrastruktur von Databricks sind alle Teams nun in der Lage, ihre eigenen Cluster aufzubauen und auszuführen, ohne sich gegenseitig in die Quere zu kommen, was ihre Fähigkeit zur Zusammenarbeit verbessert. Und was noch besser ist: Die Umsetzung hat kaum Zeit in Anspruch genommen.

„Als wir mit der Migration auf die Databricks Lakehouse-Plattform begannen, bereitete es uns durchaus Sorgen, dass wir mit neuer Technologie und einem unerfahrenen Team in weniger als drei Monaten einen funktionierenden Prototyp erstellen mussten“, sagte Helge Brügner, Data Engineer bei Solytic. „Aber Databricks hat uns geholfen, die Architektur vollständig zu verstehen und die üblichen Fallstricke zu vermeiden, und wir haben es ohne Probleme geschafft.“

Die Arbeit mit Databricks-Notebooks macht die Zusammenarbeit in der Umgebung noch einfacher. Unabhängig davon, ob die Teammitglieder Programmiersprachen beherrschen oder nicht, können die Mitglieder des Analytics-Teams mit ihren SQL-Kenntnissen in die Daten einsteigen und ihre Abfragen ausführen, um schnelle Einblicke zu erhalten. Und in den kollaborativen Notebooks kann ein Teammitglied einfach ein Diagramm zeichnen, die Notebooks mit anderen vergleichen und schnell die Vor- und Nachteile verschiedener Ansätze identifizieren.

Produktivität, Stabilität und erhebliche Kosteneinsparungen dank Zusammenarbeit

Die Implementierung von Databricks hat es Solytic ermöglicht, in weniger als einem Jahr von 20.000 auf mehr als 300.000 überwachte Geräte zu expandieren – eine 15-fache Wachstumsrate. Darüber hinaus sanken durch die Voraggregierung aller Streamingdaten, die von Tausenden von IoT-Sensoren generiert wurden, die Gesamtkosten der Analytics-Infrastruktur des Unternehmens im gleichen Zeitraum um 90 %.

Helge fügte hinzu: „Durch die Nutzung der Databricks Lakehouse-Architektur können wir heute mehr als 40 TB an Daten für analytische Workloads zugänglich machen. Wir können die Daten verschiedenen Teams zur Verfügung stellen, und die Analysten und Data Engineers können ihre Workloads unabhängig voneinander bearbeiten und skalieren. Die Zugriffskontrolle hilft uns, die Daten einzuschränken, mit denen jedes Team arbeiten kann, ohne das Risiko einzugehen, Daten zu gefährden.“

Innerhalb der nächsten 12 Monate möchte Solytic sein Data-Analytics-Team vergrößern und seine Analysefähigkeiten auf Anwendungsfälle für Machine Learning wie erweiterte vorausschauende Wartung, Erkennung von Geräteausfällen und intelligente Warnungen erweitern. Da das Lakehouse des Unternehmens jetzt vollständig zugänglich ist, können die Data-Analytics-Teams von Solytic in Zukunft weitere innovative Möglichkeiten erkunden und die Arbeitsbelastung der Bediener bei der Überwachung ihrer Anlagen reduzieren.