Direkt zum Hauptinhalt

Gesamteffektivität der Ausrüstung

DATABRICKS KOSTENLOS TESTEN

Was ist Overall Equipment Effectiveness?

Die Overall Equipment Effectiveness(OEE, auf Deutsch: Gesamtanlageneffektivität) ist ein Maß dafür, wie gut ein Fertigungsbetrieb während der geplanten Betriebszeiten verglichen mit seinem vollen Potenzial ausgelastet ist. Dabei werden Anlagen, Zeit und Material berücksichtigt. Die OEE ermittelt den Prozentsatz der Fertigungszeit, in der die Anlagen tatsächlich produktiv sind. Es handelt sich um ein Dashboard, das die Performance eines einzelnen oder kontinuierlichen Prozesses anzeigt. Die OEE beträgt maximal 100 %. Ein Wert von 100 % bedeutet, dass nur gute Teile produziert werden (100 % Qualität), mit maximaler Geschwindigkeit (100 % Performance) und ohne Unterbrechung (100 % Verfügbarkeit).

Die Messung der OEE gilt in der Fertigung als Best Practice. Durch die Messung der OEE und der zugrunde liegenden Verluste können wichtige Erkenntnisse zur systematischen Verbesserung des Fertigungsprozesses gewonnen werden. Die OEE ist eine nützliche Kennzahl zur Identifizierung von Verlusten, zum Benchmarking von Fortschritten und zur Steigerung der Produktivität von Fertigungsanlagen (d. h. zur Vermeidung von Ausschuss).

Warum ist das wichtig?

Die OEE dient seit Jahrzehnten als wichtigste Kennzahl in der Fertigung. In der Vergangenheit erfolgte das Monitoring der OEE durch manuelle Datenerfassung direkt von den Maschinen auf Batch-Basis. Ausgehend von den erfassten Daten wurde die Kennzahl berechnet. Die OEE ist ein reaktives Dashboard, das die bisherige Performance überwacht. Die wahre Stärke der OEE liegt darin, Anwendungsfälle zu implementieren, die zur Verbesserung der einzelnen OEE-Komponenten beitragen – wie der Einsatz prädiktiver Wartung zur Verbesserung der Verfügbarkeit oder die Qualitätskontrolle mithilfe von Computer Vision zur Verbesserung der Qualität, bei der er sich ebenfalls um eine prädiktive Funktion handelt.

Welche Fähigkeiten von Databricks machen den Unterschied?

  • Databricks Lakehouse nutzt Technologien wie Delta, Delta Live Tables, Autoloader und Photon und bietet Kunden so die Möglichkeit, Daten für Entscheidungen in Echtzeit bereitzustellen.
  • Lakehouse für MFG unterstützt umfangreichste Datenjobs in Quasi-Echtzeitintervallen. Beispielsweise generieren Kunden fast 400 Mio. Ereignisse pro Tag aus Transaktionsprotokollsystemen, die mit 15-Sekunden-Intervallen arbeiten. Da Berichterstellung und Analyse infolge der Datenverarbeitung ständig unterbrochen würden, laden die meisten Kunden aus dem Handel ihre Daten in einem nächtlichen Batch in ihr Data Warehouse. Bei manchen Unternehmen erfolgt der Ladevorgang sogar nur wöchentlich oder gar monatlich.
  • Eine ereignisgesteuerte Lakehouse-Architektur stellt eine einfachere Methode zur Erfassung und Verarbeitung von Batch- und Streaming-Daten dar als herkömmliche Ansätze wie etwa Lambda-Architekturen. Eine solche Architektur verwaltet die Erfassung von Änderungsdaten und sorgt für ACID-Konformität der Transaktionen.
  • Delta Live Tables vereinfacht das Anlegen von Datenpipelines und erstellt automatisch Data Lineages zur Unterstützung der laufenden Verwaltung.
  • Das Lakehouse ermöglicht die Erfassung von Datenströmen in Echtzeit und die Analyse von Streaming-Daten. Zur Durchführung von Analyseaufgaben erfordern Data Warehouses eine Extraktion, eine Transformation und das Laden sowie eine zusätzliche Extraktion aus dem Data Warehouse.
  • Photon bietet eine rekordverdächtige Abfrageleistung: Benutzer können selbst größte Datasets abfragen, um in BI-Tools Echtzeitentscheidungen zu treffen.

Welche Datenherausforderungen müssen angegangen werden, um prädiktive OEE-Fähigkeiten aufzubauen?

  • Bewältigung der Menge und Vielfalt von IoT-Daten – Um in OEE-Fertigungsumgebungen eingebettete prädiktive Anwendungsfälle zu ermöglichen, verarbeitet das Lakehouse sämtliche Arten von Datenstrukturen und Schemata, einschließlich unregelmäßiger Ablesungen von Temperatur, Druck und Vibrationen pro Sekunde bis hin zur Verarbeitung vollständig unstrukturierter Daten (z. B. Bilder, Videos, Text, Spektraldaten) oder anderer Formen wie thermografische oder akustische Signale, die über verschiedene unterstützte Treiber und Protokolle vom Edge geliefert werden.
  • Bewältigung der Komplexität von Echtzeitdaten – Um kontinuierliches Monitoring, Durchsatzoptimierung oder prädiktive Wartung voranzutreiben, ermöglicht das Lakehouse Echtzeit-Analytics von Streaming-Daten. Das Lakehouse erfasst, speichert und verarbeitet Streaming-Daten effektiv in Echtzeit oder Beinahe-Echtzeit, um sofort Erkenntnisse und Maßnahmen zu liefern.
  • Befreiung von Daten aus unabhängigen Silos – Spezialisierte Prozesse (Innovationsplattformen, QMS, MES usw.) innerhalb der Wertschöpfungskette favorisieren unterschiedliche Datenquellen und Datenverwaltungsplattformen, die auf einzigartige isolierte Lösungen zugeschnitten sind. Diese eng fokussierten Einzellösungen schränken den Unternehmenswert ein, da sie nur einen Bruchteil der Einsichten berücksichtigen, die unternehmensübergreifende Daten liefern können. Darüber hinaus spalten doppelte Insellösungen das Unternehmen und schränken die Möglichkeiten der Zusammenarbeit ein. Außerdem nimmt das Lakehouse Streaming-Daten von allen Punkten in der Wertschöpfungskette auf, speichert, verwaltet und verarbeitet sie, führt sie mit Daten aus Data Historians, ERP-, MES- und QMS-Quellen zusammen und verwandelt sie in verwertbare Erkenntnisse.
  • Vielfältige Analysefunktionen – Ältere Data Warehouses bietet begrenzte Möglichkeiten zur Bereitstellung von Erkenntnissen und Analysen zur Plattformnutzung und -Performance. Für Connected-Manufacturing-IoT-Lösungen bietet das Lakehouse eine breite Palette an Analyseoptionen – darunter alles von SQL Analytics und Suchfunktionen bis hin zu Tools zur Unterstützung von Machine Learning und Modellieren sowie eine enge Integration mit führenden BI-Lösungen (Business Intelligence), die über spezielle Dashboard- und Business-Analytics-Funktionen verfügen.
  • Prädiktive Modellierungsfunktionen – Prädiktive Modellierungsfunktionen sind entscheidend für die Bereitstellung von Erkenntnissen, und das Lakehouse bietet Notebook-gesteuerte Machine-Learning-Funktionen, mit denen Störungen vorhergesagt und verhindert werden, bevor sie sich auf den Betrieb auswirken.

Zusätzliche Ressourcen

Zurück zum Glossar