BLOG ABONNIEREN

Praxisnahe Forschung: KI-gestützte Predictive Maintenance in der Fertigung

6 cl leicht gelagerter kubanischer Rum, ca. 2,5 cl frisch gepresster Limettensaft und ca. 2 Barlöffel weißer Rohrzucker – das ist das Grundrezept eines klassischen Daiquiri. Es gibt unterschiedliche Rezepturen, und die Zubereitungsart ist wichtig, denn es kommt auf die Konsistenz an. Aber was hat ein kubanischer Cocktail mit einem Forschungsprojekt zu Predictive Maintenance zu tun? Das lesen Sie im folgenden Blogbeitrag.

Daiquiri oder DAIKIRI – der Daten-Cocktail für Industrie 4.0

Schmackhaftes Chaos? Cocktail-Sommeliers bringen das in Ordnung, schmecken alles, zerlegen die Einzelzutaten für eine Daiquiri-Variante auf der Zunge und kombinieren Sie mit Neuem. Nicht viel anders im (fast) gleichnamigen Forschungsprojekt DAIKIRI, das sich darum kümmert, aus einem riesigen Maschinendaten-Cocktail relevante Daten zu filtern, die geeignet sind, z.B. einen Maschinenausfall zu diagnostizieren. Es geht in beiden Fällen um die Essenz und Konsistenz.

DAIKIRI – der Daten-Cocktail für Industrie 4.0


Aber genug der Vergleiche. Betrachten wir das Forschungsprojekt DAIKIRI – Erklärbare Diagnostische KI für industrielle Daten. Ziel des vom Bundesministerium für Bildung und Forschung geförderten Vorhabens ist es, durch Künstliche Intelligenz (KI) künftig automatisch Diagnosen für den Maschinen- und Anlagenbau zu erstellen, die zusätzlich nachvollziehbare Erklärungen liefern, z.B., warum ein Maschinenbauteil auszufallen droht. Dadurch sind z.B. Maschinenbediener in der Lage, die Bedeutung von Diagnosen zu verstehen, zu bewerten und entsprechend zu entscheiden bzw. zu handeln.

Projektkoordinator ist die USU Software AG, als weitere Partner agieren die Arbeitsgruppe Data Science der Universität Paderborn, die AI4BD Deutschland GmbH sowie die pmOne AG. Das über 24 Monate laufende Forschungsvorhaben startete Anfang 2020.

Warum Predictive Maintenance der Schlüssel für Produktivität ist

Mit einem Umsatz von über 225 Mrd. Euro und mehr als 1 Million Beschäftigten zählt der Maschinen- und Anlagenbau zu den wichtigsten Segmenten der deutschen Wirtschaft. Durch die zunehmende Automatisierung der industriellen Prozesse und die steigende Produktivität in diesem Sektor fallen täglich Giga- bis Petabytes an Ereignisdaten an. Die intelligente Verarbeitung dieser riesigen Datenmengen mittels Maschinellem Lernen (ML) leistet bereits einen wichtigen Beitrag zur Optimierung von Produktionsabläufen und somit zur Senkung von Produktionskosten. Ein Worst-Case-Szenario stellt in diesem Zusammenhang nach wie vor die ungeplante Unterbrechung industrieller Produktionsprozesse dar. Die Folgen für Qualität, Kosten und Image sind oft nicht absehbar. Laut Berechnungen der Aberdeen Group liegen die durchschnittlichen Kosten für Ausfallzeiten bei bis zu 260.000 US-Dollar pro Stunde. Mit einer vorausschauenden Wartung (Predictive Maintenance) lassen sich Ausfälle und Schäden an Maschinen vermeiden. Das Potenzial ist riesig: laut McKinsey die Ausfallzeiten von Produktionsanlagen um bis zu 50 Prozent und die Wartungskosten um 20 bis 40 Prozent senken.


Notwendig dafür ist allerdings eine integrierte, digitalisierte und vernetzte Maschinenüberwachung – und die Verarbeitung von Wartungs-Logs, Konfigurationsdaten, Sensor- und Telemetriedaten. Diese müssen für Predictive Maintenance miteinander kombiniert werden.
Vor allem große Konzerne der Branche setzen hierfür intensiv KI-Technologien ein. Mittelständische Unternehmen stehen dadurch massiv unter Druck und müssen reagieren. Oftmals fehlt es jedoch an Know-how, durch intelligente Datenverarbeitung die wertvollen industriellen Massendaten zu nutzen.


Industriedaten nachvollziehbar machen – Wege aus der Black Box

Große industrielle Datenmengen des Maschinen- und Anlagenbaus werden heute mittels moderner Maschine-Learning-Plattformen verarbeitet, z.B. Azure ML-Studio oder Katana Flow. Diese haben jedoch einen wesentlichen Nachteil: derzeit können die Ergebnisse der Algorithmen nur von Machine-Learning-Experten verstanden und interpretiert werden. Maschine-Learning (ML)-Algorithmen liefern also nur Hinweise, „was“ ausgetauscht werden soll, jedoch nicht das „Warum“. Der für den Austausch des Maschinenstücks verantwortliche Servicetechniker muss jedoch auch wissen, warum der Algorithmus beispielsweise die Erneuerung einer Lüftung vorschlägt. Die mitgelieferte Begründung, z.B. Luftstrom nicht ausreichend oder Lebensdauer des Bauteils überschritten, unterstützt den Servicetechniker, adäquat zu reagieren.

Die Konsequenzen dieses „Black-Box-Verhaltens“ liegen auf der Hand:

  • Fehler in ML-Modellen können nur schwer oder gar nicht entdeckt werden. Daher können diese Ansätze nicht bei systemkritischen Diagnosen eingesetzt werden.
  • Die Akzeptanz dieser Black-Box-Modelle fällt auch bei nicht-kritischen Diagnosen oft gering aus, weil Domänenexperten die Ergebnisse dieser Systeme nicht nachvollziehen können und ihnen daher skeptisch gegenüberstehen.
  • Eine Validierung der Ergebnisse kann nicht gewährleistet werden, da unklar ist, wie Daten zu Modellen zusammengeführt werden.

Diese Nachvollziehbarkeit datengetriebener Vorhersagen ist also gerade für den Maschinenbau notwendig, um sichere Entscheidungen treffen zu können und kostenintensive Fehlentscheidungen zu vermeiden. Darauf zielt das Forschungsvorhaben DAIKIRI ab.

DAIKIRI: Selbsterklärende Zustandsüberwachung von Maschinen

DAIKIRI wird erstmalig KI-Verfahren entwickeln, die selbsterklärend sind und das Zustandekommen der Ergebnisse von KI automatisch „versprachlichen“ und damit transparent machen. Im Rahmen des Projektes werden die Methoden zur „Semantifizierung“ von Daten wesentlich verbessert. Intrinsisch erklärbare Verfahren für so genanntes Statistisches Maschinelles Lernen (SML) werden damit für praxisrelevante Anwendungsfälle zugänglich gemacht. Hierfür werden Daten semiautomatisch in Beschreibungslogik konvertiert. Die größte Hürde bei dieser Konvertierung ist das automatische Erstellen von Ontologien. Zum Lernen von Ontologien setzt DAIKIRI auf neuartige Embedding- und Clustering-Ansätze. Das „Training“ erfolgt mit echten Daten aus realen Anwendungsfällen, so dass DAIKIRI diese Ontologien direkt aus Maschinendaten lernt. Und so wird das System am Ende das „Was“ und „Warum“ automatisiert vorhersagen und zwar in der Form, die es dem Servicetechniker ermöglicht, das Zustandekommen des Ergebnisses auch zu verstehen. Das schafft Vertrauen und ist die Voraussetzung für Entscheidungen. Mit diesen Verfahren lassen sich künftig neben dem Maschinen- und Anlagenbau auch neue Geschäftsfelder in anderen Branchen erschließen, z.B. in der Medizintechnik. Und so ist DAIKIRI der spezielle-Cocktail, um Anwendern KI schmackhafter zu machen.

Henrik Oppermann

Henrik Oppermann

Henrik Oppermann ist Business Unit Manager bei der USU Software AG und leitet den Forschungsbereich der USU Gruppe. Dort verantwortet er den Aufbau von Industrial Big Data Lösungen und koordiniert die Arbeiten der Smart Data Projekte.

Revolutionieren Sie Ihr Wissen im Kundenservice!

Weitere interessante Artikel