Technischer Artikel - 4. Oktober 2019

Übernimmt Machine Learning die Kontrolle in der Prozessindustrie?

Geschrieben von Expert: Cosmin Koch-Ciobotaru 7 Minimale Lesezeit

Info

Diese Seite, die ursprünglich auf Englisch veröffentlicht wurde, wird mit Hilfe von automatischen Übersetzern auf Deutsch angeboten. Brauchen Sie Hilfe? Kontaktieren Sie uns

Der Satz "Daten sind das neue Öl" (The Economist, 2017) ist seit einigen Jahren in aller Munde und unterstreicht den Wandel, mit dem wir in allen Branchen konfrontiert sind: Vom Einzelhandel bis zu Medien und Unterhaltung, von der Gesundheitsfürsorge und persönlichen Assistenten bis zum Transportwesen und sozialen Plattformen erzeugt die hypervernetzte Realität enorme Datenmengen. Gefüttert mit diesen Daten, suchen Analytics und Machine Learning (ML)-Algorithmen nach Mustern und Informationen, um Anwendungen, boomende Unternehmen und neue Geschäftsmodelle zu ermöglichen.

Ist Machine Learning für alle Branchen anwendbar? Wo ist der Platz von Machine Learning in der Prozessindustrie? Wie sicher und zuverlässig sind diese Algorithmen, um Prozesse zu betreiben?

Diese Antworten liegen im Spannungsfeld von Regelungstechnik, Machine Learning und der Offenheit der Industrie für neue Technologien.

Die große Mehrheit der verwendeten Algorithmen sind überwachte Lernverfahren: Das bedeutet, dass diese Algorithmen Trainingssätze von Daten benötigen, die ähnlich sind (die gleiche Verteilung haben) wie die Test- oder normalen Betriebsdaten. Nach dem Training wird das Machine Learning-Modell auf neue Daten angewendet, um es zu evaluieren.
Unternehmen, die ihre Produkte und Dienstleistungen so entwickelt haben, dass sie die Nutzung von Daten in ihren Kern integrieren und die Datenerfassung mit der Monetarisierung dieser Daten verbinden, sind mit der gesamten Palette an Algorithmen, die Machine Learning zu bieten hat, sehr erfolgreich. Das deutlichste Beispiel für diese Art von Unternehmen ist Facebook, das seine Einnahmen fast ausschließlich aus digitaler Werbung generiert. Ein weiterer Hinweis darauf, wie wichtig es ist, die Daten in den Kern des Geschäfts zu integrieren, ist die Tatsache, dass alle Daten, die diese Unternehmen haben, nur von demselben Unternehmen zu ihrem maximalen Wert monetarisiert werden können; aus ihrer Plattform herausgenommen, nehmen wir an, auf einem (sehr großen) Speichermedium, generieren dieselben Daten allein nicht denselben Wert; der Wert entsteht, wenn die Daten im Kontext der Plattform des Unternehmens verwendet werden: die Produkte, die Dienstleistungen, die Schnittstellen mit anderen Dritten sind diejenigen, die aus den Daten Wert generieren.

Für Unternehmen, die schon vor dem Zeitalter des maschinellen Lernens ein Geschäft hatten, ist es eine Herausforderung, die vorhandenen Daten mit Machine-Learning-Algorithmen zu versehen und den Betrieb so zu verändern, dass die neuen Technologien ihr volles Potenzial entfalten können - und genau darum geht es bei der digitalen Transformation.

Die Prozessindustrie beschäftigt sich, wie der Name schon sagt, mit dem Betrieb verschiedener Prozesse, um Güter zu produzieren, sie ist eine "physische Industrie". Das Ergebnis des Vorgangs ist ein Endprodukt. Ob in einer pharmazeutischen, petrochemischen, Energie- oder Wasseraufbereitungsanlage, der Prozess muss mit kontrollierten Sollwerten arbeiten, robust gegenüber Störungen und Ausfällen sein und eine garantierte Stabilität aufweisen. Dies alles wird durch die Anwendung der Theorie der Kontrollsysteme erreicht, einem Zweig der angewandten Mathematik, der in den letzten zwei Jahrhunderten die Anwendung aller technologischen Fortschritte ermöglicht hat. Ob es darum geht, einen konstanten Druck in einem Tank, eine konstante Leistungsabgabe einer Energieanlage oder den Wasserfluss einer Kläranlage aufrechtzuerhalten, die Control Systems Theorie hilft dabei, die Rückkopplungsschleifen zu entwerfen, die die Prozesse optimal in Betrieb halten.

Der wichtigste Aspekt beim Entwurf der Regelung ist die Sicherstellung der Stabilität eines Prozesses. Anschauliche Reste von Stabilitätsfehlern sind in der Populärkultur als Erinnerung an die Kraftwerkskatastrophe von Tschernobyl präsent. Der erste IEEE-Bode-Preis-Vortrag "Respect the unstable" (Stein, 2003) gibt tiefe Einblicke in die Verwendung von Control Systems Tools bei der Beurteilung der Stabilität eines Prozesses.

Abgesehen von der Stabilität impliziert die Steuerung des Betriebs eines Prozesses Robustheit - die Sicherstellung, dass die Steuerungsaktionen nur zu einem kleinen Teil von verrauschten Messungen oder Fehlern im Design beeinflusst werden und dass der Prozess innerhalb der Designgrenzen arbeitet.

Ein weiterer Aspekt ist die deterministische Natur des Prozesses und der Steuerung: Obwohl die Prozesse in der Regel nichtlinear sind und verschiedene Arten von Control Systems Algorithmen angewendet werden, wird am Ende ein mathematisches Modell erhalten und verwendet; dieses Modell hat eine direkte Interpretation in der physikalischen Welt und das gesamte System (Prozess + Steuerung) kann im Detail verstanden werden. Dieser Aspekt unterscheidet sich stark von der Verwendung eines neuronalen Netzwerks mit maschinellem Lernen, bei dem die verschiedenen Koeffizienten der Neuronen auf den verschiedenen Schichten keine physikalische Interpretation haben - dies stellt ein großes Hindernis bei der Einführung von maschinellem Lernen in dieser Branche dar.

Die Rückkopplung durch ein neuronales Netzwerk zu schließen und einem Machine Learning-Algorithmus die volle Kontrolle über einen Prozess zu überlassen, mag weit weg sein. Allerdings können Machine Learning-Algorithmen mit ihrer Fähigkeit, Muster zu erkennen, bei der Bewertung des Prozesszustands in einer offenen Schleife eingesetzt werden und die Bediener unterstützen; mit anderen Worten, sie können als Entscheidungsunterstützungssystem fungieren.

Zu den wichtigsten Vorteilen des Einsatzes von Algorithmen des maschinellen Lernens in solchen Branchen gehören: Vorhersage von Ausfällen, Planung von Wartungsarbeiten, Reduzierung von Ausfallzeiten und Betriebskosten, Verbesserung der Effizienz durch Identifizierung von Engpässen und suboptimalen Betriebszuständen.

Die häufigsten ML-Algorithmen, die für Prozesse verwendet werden, sind die Erkennung von Anomalien und die Klassifizierung. Ein Algorithmus für maschinelles Lernen kann mit jahrelangen historischen Daten trainiert werden, um vorherzusagen und zu warnen, wenn eine Komponente zu versagen droht, wenn sie vom normalen Betrieb abweicht. Die Kunst besteht darin, dem Algorithmus die richtigen Daten und korrekten Labels zur Verfügung zu stellen: er wird eine Anomalie außerhalb des Bereichs melden, der durch den Trainingssatz repräsentiert wurde.
Der Reinforcement-Learning-Algorithmus überbrückt die Lücke zwischen dem maschinellen Lernen und den Steuerungssystemen, da er die Feedback-Schleife schließt und mit dem Prozess auf beide Arten interagiert: Er liest Messungen und sendet Aktionen. Dieser Algorithmus bildet die Umgebung in ein internes Modell ab und wählt bei jedem Schritt aus einer Reihe von möglichen Aktionen aus, um mit der realen Umgebung zu interagieren, mit dem Ziel, eine Optimierungsfunktion zu minimieren. Diese Art von Algorithmen wurde von DeepMind verwendet, um beim Go gegen den Weltmeister zu gewinnen (Silver, 2018) und auch um gegen menschliche Gegner bei PC-Spielen zu gewinnen (Hodson, 2019). Diese Algorithmen fanden auch ihren Weg in eine eher prozesskritische Anwendung zur Optimierung des Energieverbrauchs eines Rechenzentrums (Judge, 2019). Die Herausforderung bei dieser Art von Algorithmen ist die hohe Empfindlichkeit gegenüber Änderungen der Umgebung (wie immer in der Industrie): eine Änderung der Größe des Go-Tisches, die Änderung der möglichen Aktionen in einem PC-Spiel oder eine physikalische Änderung eines Elements eines Prozesses macht das Modell veraltet und erzwingt ein teures und zeitaufwändiges Re-Training.

Auch wenn es noch sehr optimistisch ist, zu erwarten, dass maschinelles Lernen alle unsere Probleme lösen und den Betrieb einer ganzen Anlage optimieren kann, können diese Algorithmen in einigen speziellen Anwendungen, die die Entscheidungsfindung unterstützen können, sehr gut funktionieren. Wie bei der Optimierung ist die "optimale Steuerung" ein geweihter und ausgereifter Zweig der Kontrollsysteme mit vielen Jahren des Studiums und erfolgreicher Implementierungen.



Bibliographie

  • Hodson, H., 2019. 1843Magazin. [Online] Verfügbar unter: https://www.1843magazine.com/features/deepmind-and-google-the-battle-to-control-artificial-intelligence [Zugriff am 18. September 2019].
  • Richter, P., 2019. datacenterdynamics. [Online] Verfügbar unter: https://www.datacenterdynamics.com/analysis/smartening-how-ai-and-machine-learning-can-help-data-centers/ [Zugriff am 18. September 2019].
  • Silver, D., 2018. DeepMind. [Online] Verfügbar unter: https://deepmind.com/blog/article/alphazero-shedding-new-light-grand-games-chess-shogi-and-go [Zugriff am 18. September 2019].
  • Stein, G., 2003. Respect the unstable. IEEE Control Systems Magazine, 7, S. 12-25, Aug. 2003, doi: 10.1109/MCS.2003.1213600 [Online] Verfügbar unter: https://ieeexplore.ieee.org/document/1213600.
  • TheEconomist, 2017. TheEconomist. [Online] Verfügbar unter: https://www.economist.com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data [Zugriff am 18. September 2019].

Gefällt Ihnen dieser Artikel? Teilen Sie es mit Ihren Freunden!