Predictive Maintenance (PdM) sieht Wartungsbedarf voraus, um Kosten im Zusammenhang mit ungeplanten Ausfallzeiten zu vermeiden. Durch Herstellen einer Verbindung mit Geräten und Überwachen der Daten, die von den Geräten generiert werden, können Sie Muster erkennen, die zu möglichen Problemen oder Fehlern führen. Anschließend können Sie diese Erkenntnisse nutzen, um Probleme zu beheben, bevor sie auftreten. Diese Fähigkeit, vorherzusagen, wann Anlagen oder Ressourcen gewartet werden müssen, ermöglicht es Ihnen, die Lebensdauer der Anlagen zu optimieren und Ausfallzeiten zu minimieren.
PdM gewinnt Erkenntnisse aus den Daten, die von den Geräten in der Fertigung generiert werden, und handelt dann nach diesen Erkenntnissen. Die Idee von PdM geht auf die frühen 1990er Jahre zurück. PdM ergänzt die regelmäßig geplante vorbeugende Wartung. Die Implementierung von PdM war zunächst nicht ganz leicht, da keine Sensoren zum Generieren von Daten vorhanden waren und es an Rechenressourcen zum Sammeln und Analysieren von Daten fehlte. Heute ist PdM dank Fortschritten in den Bereichen Internet der Dinge (Internet of Things, IoT), Cloud Computing, Datenanalyse und maschinelles Lernen (ML) im Mainstream angekommen.
Für PdM sind Daten von Sensoren zur Geräteüberwachung sowie weitere Betriebsdaten erforderlich. Das PdM-System analysiert die Daten und speichert die Ergebnisse. Menschen handeln dann basierend auf der Analyse.
Nach einigen Hintergrundinformationen erfahren Sie in diesem Artikel, wie die verschiedenen Teile einer PdM-Lösung mit einer Kombination aus lokalen Daten, Azure Machine Learning und ML-Modellen implementiert werden können. PdM ist bei der Entscheidungsfindung sehr stark auf Daten angewiesen, weshalb wir uns zunächst mit der Datensammlung befassen. Die Daten müssen erfasst und dann verwendet werden, um die aktuellen Vorgänge auszuwerten und in Zukunft noch bessere Vorhersagemodelle zu erstellen. Abschließend erfahren Sie, wie eine Analyselösung aussieht – einschließlich Visualisierung der Analyseergebnisse in einem Berichtstool wie Microsoft Power BI.
Strategien für die Wartung
Im Fertigungsbereich haben sich nach und nach verschiedene Wartungsstrategien entwickelt:
- Die reaktive Wartung behebt Probleme, nachdem sie aufgetreten sind.
- Vorbeugende Wartung behebt Probleme, bevor sie auftreten, indem sie einem Wartungsplan folgt, der auf früheren Ausfällen basiert.
- PdM behebt ebenfalls Probleme, bevor sie auftreten, berücksichtigt aber die tatsächliche Nutzung der Anlage, anstatt einem festen Zeitplan zu folgen.
Von den drei Lösungen war PdM aufgrund von Einschränkungen bei der Datenerfassung, Verarbeitung und Visualisierung am schwierigsten zu erreichen. Diese Strategien werden im Anschluss näher betrachtet:
Reaktive Wartung
Bei der reaktiven Wartung werden Ressourcen erst gewartet, wenn ein Problem auftritt. So wird beispielsweise der Motor Ihres fünfachsigen CNC-Bearbeitungszentrums erst gewartet, wenn er nicht mehr funktioniert. Reaktive Wartung maximiert die Lebensdauer von Komponenten. Sie führt aber auch zu unbekannten Ausfallzeiten, unerwarteten Kollateralschäden durch fehlerhafte Komponenten und anderen Problemen.
Vorbeugende Wartung
Bei der vorbeugenden Wartung werden Ressourcen in vordefinierten Intervallen gewartet. Das Intervall für eine Ressource basiert in der Regel auf der bekannten Fehlerhäufigkeit, auf der Leistung in der Vergangenheit, auf Simulationen und auf Statistikmodellen. Der Vorteil der vorbeugenden Wartung besteht darin, dass sie die Uptime erhöht, zu weniger Fehlern führt und die Wartung planbar macht. Der Nachteil ist häufig, dass die ausgetauschte Komponente noch gar nicht das Ende ihrer Lebensdauer erreicht hat. Dies führt zu Überwartung und unnötigem Aufwand. Auf der anderen Seite können Komponenten auch vor der geplanten Wartung ausfallen. Sie kennen die vorbeugende Wartung wahrscheinlich gut: Sie halten die Maschine nach einer bestimmten Betriebsdauer (oder einer anderen Metrik) an, überprüfen sie und tauschen alle Teile aus, die laut Plan ausgetauscht werden müssen.
PdM
Bei PdM wird auf der Grundlage von Modellen vorhergesagt, wann es bei einer Ressource wahrscheinlich zum Ausfall einer Komponente kommt, um eine Just-In-Time-Wartung planen zu können. PdM verbessert die vorherigen Strategien, indem sowohl die Betriebszeit als auch die Lebensdauer der Ressourcen maximiert werden. Da Sie die Wartung durchführen, wenn die maximale Lebensdauer der Komponente fast erreicht ist, geben Sie weniger Geld für den Austausch von Teilen aus, die noch funktionieren. Der Nachteil besteht in der schwierigeren Umsetzung des Just-In-Time-Aspekts von PdM: Hier ist eine reaktionsschnelle und flexible Wartungsorganisation gefragt. Zurück zum Motor Ihres fünfachsigen CNC-Bearbeitungszentrums: Mit PdM planen Sie die Wartung für einen Zeitpunkt, der für Sie günstig ist und in der Nähe des erwarteten Fehlerzeitpunkts des Motors liegt.
Verschiedene Möglichkeiten eines PdM-Angebots
Ein Hersteller kann PdM verwenden, um seine eigenen Fertigungsvorgänge zu überwachen. Mit PdM können aber auch neue Geschäftschancen und Umsatzquellen erschlossen werden. Beispiel:
- Ein Hersteller schafft einen Mehrwert für seine Kunden, indem er PdM-Dienste für seine Produkte anbietet.
- Ein Hersteller bietet seine Produkte im Rahmen eines Product-as-a-Service-Modells an, bei dem Kunden das Produkt abonnieren, anstatt es zu kaufen. Bei diesem Modell möchte der Hersteller die Uptime des Produkts maximieren, da es nur Umsatz generiert, wenn es funktioniert.
- Ein Unternehmen bietet PdM-Produkte und -Dienste für Produkte an, die von einem Hersteller hergestellt werden.
Erstellen einer PdM-Lösung
Die Erstellung einer PdM-Lösung beginnt mit Daten. Im Idealfall zeigen die Daten den regulären Betrieb sowie den Zustand vor, während und nach Fehlern. Die Daten stammen von Sensoren, aus Notizen, die von Anlagenbetreibern gepflegt werden, es sind Ausführungsinformationen, Umgebungsdaten, Maschinenspezifikationen usw. Die aufzeichnenden Systeme können unter anderem Aufzeichnungssysteme, Manufacturing Execution Systems und Enterprise Resource Planning (ERP) umfassen. Die Daten werden für Analysen auf vielfältige Weise zur Verfügung gestellt. Im folgenden Diagramm ist der Team Data Science-Prozess (TDSP) dargestellt. Der Prozess wurde für die Fertigung angepasst und leistet hervorragende Arbeit zur Erklärung der verschiedenen Aspekte, die beim Erstellen und Ausführen von Modellen für maschinelles Lernen zu berücksichtigen sind.
Ihre erste Aufgabe besteht darin, die Arten von Fehlern zu identifizieren, für die Sie Prognosen erstellen möchten. Anschließend ermitteln Sie auf dieser Grundlage die Datenquellen, die relevante Daten für diese Fehlertyp enthalten. Die Pipeline übermittelt die Daten aus Ihrer Umgebung in das System. Die wissenschaftlichen Fachkräfte für Daten bereiten die Daten mithilfe ihrer bevorzugten Machine Learning-Tools auf. An diesem Punkt sind sie bereit, Modelle zu erstellen und zu trainieren, die verschiedene Arten von Problemen identifizieren können. Die Modelle beantworten Fragen wie die folgenden:
- Wie hoch ist die Wahrscheinlichkeit, dass innerhalb der nächsten x Stunden ein Fehler bei der Ressource auftritt? Antwort: 0 bis 100 %
- Welche Restnutzungsdauer hat die Ressource? Antwort: x Stunden
- Verhält sich diese Ressource ungewöhnlich? Antwort: Ja oder Nein
- Welche Ressource muss am dringendsten gewartet werden? Antwort: Ressource x
Nach der Entwicklung können die Modelle an folgenden Orten verwendet werden:
- In der Ausrüstung selbst (Selbstdiagnose)
- Auf einem Edgegerät in der Fertigungsumgebung
- In Azure
Nach der Bereitstellung wird die PdM-Lösung von Ihnen weiter aufgebaut und gepflegt.
Mit Azure können Sie die Modelle auf Basis der Technologie Ihrer Wahl trainieren und testen. Sie können beispielsweise GPUs, Field-Programmable Gate Arrays (FPGAs), CPUs oder Computer mit großem Arbeitsspeicher verwenden. Die von wissenschaftlichen Fachkräften für Daten verwendeten Open-Source-Tools (wie R und Python) werden von Azure vollständig unterstützt. Nach Abschluss der Analyse können die Ergebnisse in anderen Facetten des Dashboards oder in anderen Berichten angezeigt werden. Diese Berichte können in benutzerdefinierten Tools oder in Berichtstools wie Power BI angezeigt werden.
Was auch immer Ihre PdM-Anforderungen sein mögen, Azure stellt die Tools, die Skalierung und die Funktionen bereit, die für die Entwicklung einer soliden Lösung benötigt werden.
Erste Schritte
Von vielen Produktionsanlagen werden Daten generiert. Starten Sie so bald wie möglich damit, diese Daten zu sammeln. Wenn Fehler auftreten, lassen Sie die Daten von wissenschaftlichen Fachkräften für Daten analysieren, um Modelle für die Erkennung zukünftiger Fehler zu erstellen. Wenn sich Ihr Wissen in puncto Fehlererkennung vergrößert hat, können Sie in den Vorhersagemodus wechseln und Probleme von Komponenten während geplanter Downtime beheben. Predictive Maintenance Using PySpark bietet eine exemplarische Vorgehensweise zum Erstellen der maschinellen Lernstücke der Lösung.
Weitere Informationen zur Erstellung von Modellen finden Sie bei Bedarf unter Grundlagen von Data Science für maschinelles Lernen. Das Learn-Modul Einführung in Azure Machine Learning bietet eine Einführung in die Azure-Tools.
Komponenten
Azure Blob Storage ist ein skalierbarer und sicherer Objektspeicher für unstrukturierte Daten. Sie können es für Archive, Data Lakes, Hochleistungscomputer, maschinelles Lernen und Cloud-native Workloads verwenden.
Azure Cosmos DB ist eine vollständig verwaltete, hochgradig reaktionsfähige, skalierbare NoSQL-Datenbank für die moderne App-Entwicklung. Es bietet Sicherheit auf Unternehmensniveau und unterstützt APIs für viele Datenbanken, Sprachen und Plattformen. Dazu gehören SQL, MongoDB, Gremlin, Table und Apache Cassandra. Serverlose, automatische Skalierungsoptionen in Azure Cosmos DB verwalten die Kapazitätsanforderungen von Anwendungen effizient.
Azure Data Lake Storage ist ein hochgradig skalierbarer und sicherer Speicherdienst für Hochleistungs-Analyseworkloads. Die Daten stammen in der Regel aus mehreren heterogenen Quellen und können strukturiert, teilweise strukturiert oder unstrukturiert sein. Data Lake Storage Gen2 vereint die Funktionen von Data Lake Storage Gen1 mit Blob Storage und bietet Dateisystemsemantik, Sicherheit auf Dateiebene und Skalierung. Darüber hinaus stehen der mehrstufige Speicher, die Hochverfügbarkeit und die Notfallwiederherstellung von Blob Storage zur Verfügung.
Azure Event Hubs ist eine hochgradig skalierbare Datenstreamingplattform und ein Dienst zur Erfassung von Ereignissen, der pro Sekunde Millionen von Ereignissen empfangen und verarbeiten kann. Event Hubs kann Ereignisse, Daten oder Telemetriedaten, die von verteilter Software und verteilten Geräten erzeugt wurden, verarbeiten und speichern. An einen Event Hub gesendete Daten können transformiert und mit einem beliebigen Echtzeitanalyseanbieter oder Batchverarbeitungs- und Speicheradapter gespeichert werden. Event Hubs bietet Funktionen für das Veröffentlichen/Abonnieren in großem Umfang mit geringer Wartezeit und eignet sich daher für Big Data-Szenarien.
Azure IoT Edge stellt Cloudworkloads bereit, die über Standardcontainer auf Edgegeräten ausgeführt werden. Intelligente IoT Edge-Geräte können schnell und offline reagieren, verringern Wartezeiten und Bandbreitennutzung und erhöhen die Zuverlässigkeit. Darüber hinaus tragen sie zur Kostensenkung bei, indem sie nur die erforderlichen Daten vorverarbeiten und an die Cloud senden. Geräte können KI- und Machine Learning-Module, Azure- und Drittanbieterdienste und benutzerdefinierte Geschäftslogik ausführen.
Azure IoT Hub ist ein vollständig verwalteter Dienst, der eine zuverlässige und sichere bidirektionale Kommunikation zwischen Millionen von IoT-Geräten und einem cloudbasierten Back-End ermöglicht. Es bietet gerätespezifische Authentifizierung, Nachrichtenrouting, Integration in andere Azure-Dienste und Verwaltungsfeatures für die Gerätesteuerung und -konfiguration.
Azure Machine Learning ist ein professioneller Dienst für maschinelles Lernen, mit dem Sie schnell Modelle erstellen und bereitstellen können. Es bietet Anwendern aller Kenntnisstufen einen Low-Code-Designer, automatisiertes maschinelles Lernen und eine gehostete Jupyter-Notebook-Umgebung, die verschiedene IDEs unterstützt.
Machine Learning ermöglicht es Computern, aus Daten und Erfahrungen zu lernen und ohne explizite Programmierung zu agieren. Kunden können KI-Anwendungen erstellen, die Informationen auf intelligente Weise messen, verarbeiten und entsprechend agieren. Damit ergänzen diese Anwendungen menschliche Fähigkeiten, verbessern Geschwindigkeit und Effizienz und helfen Unternehmen dabei, mehr zu erreichen.
Bei Azure Service Bus handelt es sich um einen vollständig verwalteten Nachrichtenbroker für Unternehmen mit Nachrichtenwarteschlangen und Publish/Subscribe-Themen. Er wird zur Verbindung von Anwendungen, Diensten und Geräten verwendet. In Kombination mit Azure Relay kann Service Bus eine Verbindung mit remote gehosteten Anwendungen und Diensten herstellen.
Azure SQL ist eine Familie von SQL-Clouddatenbanken, die eine einheitliche Erfahrung für Ihr gesamtes SQL-Portfolio sowie eine breite Palette von Bereitstellungsoptionen von der Edge bis zur Cloud bietet.
Azure SQL-Datenbank, Teil der Azure SQL-Familie, ist eine vollständig verwaltete PaaS-Datenbank-Engine (Platform-as-a-Service). Azure SQL-Datenbank wird immer unter der neuesten stabilen Version der SQL Server-Datenbank-Engine und unter einem gepatchten Betriebssystem ausgeführt. Der Dienst nimmt Ihnen die meisten Datenbankverwaltungsfunktionen ab. Hierzu zählen unter anderem Upgrades, Patches, Backups und die Überwachung. Er bietet die umfassendste SQL Server-Engine-Kompatibilität, sodass Sie Ihre SQL Server-Datenbanken migrieren können, ohne Ihre Apps ändern zu müssen.
Power BI ist eine Suite mit Business Analytics-Tools, die die Erstellung umfassender interaktiver Datenvisualisierungen ermöglicht. Sie enthält Analysedienste, Apps und Connectors, mit denen unzusammenhängende Datenquellen in kohärente, visuell ansprechende und interaktive Erkenntnisse verwandelt werden können. Power BI kann eine Verbindung mit Hunderten von Datenquellen herstellen, die Datenaufbereitung vereinfachen und Ad-hoc-Analysen unterstützen.
Azure Data Explorer ist ein schneller und hochgradig skalierbarer Dienst zur Untersuchung von Protokoll- und Telemetriedaten. Sie können Azure Data Explorer verwenden, um einen Zeitreihendienst zu entwickeln. Azure Data Explorer umfasst native Unterstützung für die Erstellung, Bearbeitung und Analyse mehrerer Zeitreihen mit Lösungen und Workflows zur Überwachung in nahezu Echtzeit.
Azure Data Explorer kann Daten von Azure IoT Hub, Azure Event Hubs, Azure Stream Analytics, Power Automate, Azure Logic Apps, Kafka, Apache Spark und vielen anderen Diensten und Plattformen erfassen. Die Erfassung ist skalierbar, und es gibt keine Grenzen. Zu den unterstützten Azure Data Explorer-Erfassungsformaten gehören JSON, CSV, Avro, Parquet, ORC, TXT und andere Formate.
Über die Webbenutzeroberfläche von Azure Data Explorer können Sie Abfragen ausführen und Dashboards zur Datenvisualisierung erstellen. Azure Data Explorer kann auch in andere Dashboarddienste integriert werden, darunter Power BI, Grafana und andere Tools zur Datenvisualisierung, die ODBC- und JDBC-Connectors verwenden. Der optimierte native Azure Data Explorer Connector für Power BI unterstützt den direkten Abfrage- oder Importmodus, einschließlich Abfrageparameter und Filter. Weitere Informationen finden Sie unter Datenvisualisierung mit Azure Data Explorer.
Zusammenfassung
PdM identifiziert spezifische Komponenten, die untersucht, repariert oder ausgetauscht werden müssen, und stellt somit eine Verbesserung der Zeitpläne für vorbeugende Wartung dar. Hierzu sind instrumentierte und vernetzte Computer erforderlich, um Daten für den Aufbau von PdM-Lösungen bereitzustellen.
Die Infrastruktur von Microsoft kann Ihnen helfen, Lösungen zu entwickeln, die auf dem Gerät, auf einem Edge-Gerät und in der Cloud ausgeführt werden. Es stehen zahlreiche Ressourcen zur Verfügung, die Sie beim Einstieg unterstützen.
Wählen Sie zunächst bis zu drei der wichtigsten Fehler aus, die Sie verhindern möchten, und beginnen Sie Ihren Erkennungsprozess mit diesen Elementen. Identifizieren Sie dann, wie Sie an die Daten kommen, die zur Erkennung der Fehler beitragen. Kombinieren Sie diese Daten mit den Fähigkeiten, die Sie im Kurs Grundlagen von Data Science für maschinelles Lernen erworben haben, um Ihre PdM-Modelle zu erstellen.
Beitragende
Dieser Artikel wird von Microsoft gepflegt. Er wurde ursprünglich von folgenden Mitwirkenden geschrieben:
Hauptautor:
- Scott Seely | Software Architect
Nächste Schritte
- Einführung in Azure Blob Storage
- Dokumentation zu Azure Cosmos DB
- Dokumentation zu Azure Data Lake Storage Gen1
- Dokumentation zu Azure Event Hubs
- Azure IoT Edge-Dokumentation
- Dokumentation zu Azure IoT Hub
- Azure Machine Learning-Dokumentation
- Dokumentation zu Azure Service Bus-Messaging
- Azure Relay: Dokumentation
- Azure SQL-Dokumentation
- Power BI-Dokumentation
- Zeitreihenanalysen in Azure Data Explorer