Sonntag, 24. Juli 2022

Meine Gedanken zum Framework für die Analytik Teil 1

 Das industrielle Internet der Dinge (IIoT) zielt darauf ab, industrielle Anlagen und Maschinen - die Dinge - mit den Informationssystemen des Unternehmens, den Geschäftsprozessen und den Menschen, die sie betreiben und nutzen, zu verbinden.

Die fortschrittliche Analytik ist das Herzstück dieser nächsten Generation der Integration und bietet, wenn sie auf Maschinen- und Prozessdaten angewendet wird, neue Erkenntnisse und Intelligenz , um die Entscheidungsfindung erheblich zu optimieren und intelligente Abläufe zu ermöglichen, die zu transformative Geschäftsergebnissen und sozialem Wert führen.

Verwendung Analytics Framework

Das Analytik-Framework für das industrielle Internet der Dinge ist als Architekturvorlage für Systemarchitekten gedacht, um eine konkrete , auf die Anforderungen eines bestimmten IIoT-Systems zugeschnittene Architektur zu erstellen, das Verständis und die Kommunikation des Gesamtsystems unter den Beteiligten zu unterstützen und die Architektur so zu implementieren , dass die einzigartigen Systemanforderungen erfüllt werden.

Der Wert der industriellen Analytik

Analytik kann im weitesten Sinne als eine Disziplin definiert werden die Daten durch systematische Analyse in Informationen umwandelt.

Industrielle Analytik ist der Einsatz von Analytik in IIoT-Systemen. Sie ermöglicht ein besseres Verständnis der Betriebszustände, der Leistung und der Umgebung eines Systems. Sie identifiziert und analysiert aufkommende Informationsmuster, um Bewertungen von Industriesystemen unter verschiedenen Bedingungen zu ermöglichen. Diese Bewertungen verbessern die Funktionalität und verringern Ineffizienz und Betriebskosten. Dies wird als dynamische Betriebsoptimierung bezeichnet.

Die industrielle Analytik kann auch Systemeinsätze optimieren. So kann beispielsweise die Analyse von Verkehrsmustern in Echtzeit in einem Ballungsraum in Verbindung mit dem Straßenzustand, dem Bau und der Instandhaltung , dem Bau und der Instandhaltung von Straßen, den Wetterbedingungen , der Tageszeit , den Jahreszeiten, Unfällen und anderen Ereignissen dazu führen, dass Fahrzeugsteuerungssysteme optimale Routen zur Verringerung von Fahrzeiten, Staus , Umweltverschmutzung und Energieverbrauch ermitteln.

Industrielle Analysen können auf Maschinenstromdaten aus unterschiedlichen Quellen angewendet werden, um Ereignismuster zu erkennen, zu abstrahieren, zu filtern und zu aggregierten und sie dann zu korrelieren und zu modellieren, um Ereignisbeziehungen wie Kausalität, Zugehörigkeit und zeitliche Merkmale zu erkennen. Die Identifizierung von bedeutsamen Ereignissen und die Ableitung von Mustern kann auf größere und komplexere Zusammenhänge hinweisen, so dass auf diese Ereignisse angemessen reagiert werden kann.

Erste Schritte in der industriellen Analytik

Die Analytik lässt sich im Allgemeinen in drei große Kategorien einteilen:

Deskriptive Analysen gewinnen Einblicke aus historischen oder aktuellen Datenströmen, u.a. Für Status- und Nutzungsüberwachung , Berichterstattung, Erkennung und Diagnose von Anomalien, Modellerstellung oder Schulung.

Prädikative Analysen ermitteln erwartete Verhaltensweisen oder Ergebnisse auf der Grundlage von Vorhersagemodellen, die auf statistischen und maschinellen Lernverfahren beruhen, z.B. Vorhersage des Material- und Energieverbrauchs sowie Vorhersage. Von Komponenten- und Systemverschleiß und Fehlern.

Die präskriptive Analytik nutzt die Ergebnisse der prädikativen Analytik als Orientierungshilfe , um Betriebsänderungen zur Optimierung von Prozessen und zur Vermeidung von Ausfällen und den damit verbundenen Ausfallzeiten zu empfehlen. Ein Beispiel für präskriptive Analytik ist die On-Demand-Produktion auf Grundlage eines soliden geometrischen Montagemodells, um den optimalen Satz an Fertigungsverfahren für das Endprodukt zu finden.


Die Analyseergebnisse können automatisch auf Maschinen und Systeme angewandt oder zur Unterstützung menschlicher Entscheidungen durch Visualisierung der Analyseergebnisse verwendet werden, um das menschliche Verständnis zu verbessern und Vertrauen in eine Entscheidung zu schaffen.

Die industrielle Analytik steht vor besonderen Herausforderungen, da die Ergebnisse den Betrieb und die Sicherheit von Dingen in der physischen Welt verändern können. Diese Auswirkungen können unerwünscht oder schädlich sein und unbeabsichtigt die Sicherheit von Menschen beeinträchtigen oder Eigentum und die Umwelt schädigen. Da bei der industriellen Analytik häufig Daten von verschiedenen Sensoren und Maschinen interpretiert werden, die sich möglicherweise widersprechen, müssen wir die verschiedenen Informationsströme verstehend und zusammenführen, um zu einer korrekten Schlussfolgerung zu gelangen.

Hier sind die Anforderungen aufgeführt, die bei der Planung der industriellen Analytik zu berücksichtigen sind.

Korrektheit

Die industrielle Analytik muss Analyseergebnissen ein höheres Maß an Genauigkeit erfüllen. Jedes System, das die Ergebnisse interpretiert und in die Tat umsetzt, muss über Scherheitsvorkerherungen gegen unerwünschte und unbeabsichtigte physikalische Folgen verhindert.

Timing

Die industrielle Analytik muss bestimmten harten Termin- und Synchronisationsanforderungen genügen. Nahezu sofortige Analyseergebnisse, die innerhalb eines deterministischen Zeitfensters geliefert werden, sind für zuverlässige und qualitativ hochwertige Maßnahmen im industriellen Betrieb erforderlich.

Sicherheit

Bei der Anwendung der industriellen Analytik sowie bei der Interpretation und Umsetzung der Ergebnisse müssen strenge Sicherheitsanforderungen eingehalten werden, um das Wohlergehen von Arbeitnehmeren, Nutzern und der Umwelt zu gewährleisten.

Kontextualisiert

Die Analyse von Daten innerhalb eines industriellen Systems erfolgt nie ohne den Kontext, in dem die Aktivitäten und Beobachtungen stattfinden. Es ist nicht möglich , eine Bedeutung zu konstruieren , wenn nicht ein vollständiges Verständnis des ausgeführten Prozesses und der Zustände aller Geräte und ihrer Peripheriegeräte berücksichtigt wird, um die wahre Bedeutung der Daten abzuleiten und umsetzbare Informationen zu erstellen.

Kausalorientiert

Industrielle Abläufe haben mit der physischen Welt zu tun, und die industrielle Analytik muss mit bereichsspezifischem Fachwissen validiert werden, um die komplexen kausalen Beziehungen in den Daten zu modellieren. Die Kombination von ersten Prinzipien, z.B. der physikalischen Modelierung, mit anderen statistischen und maschinellen Lernfähigkeiten der Datenwissenschaft ist in vielen industriellen Anwendungsfällen erforderlich, um genaue Analyseergebnisse zu erzielen.

Verteilt

Viele Komplexe industrielle Systeme haben hierarchische Ebenen, die über geografische Gebiete verteilt sind. Jedes dieser Teilsysteme kann einzigartige analytische Anforderungen zur Unterstützung seiner Operationen haben. Daher muss die industrielle Analytik auf die lokalen Anforderungen der von ihr unterstützten Teilsysteme zugeschnitten sein. Die Anforderungen an das Timing (Vermeidung langer Latenzzeiten) und die Ausfallsicherheit (Vermeidung eines weitreichenden Ausfalls von Diensten aufgrund von Fehlern im Netz oder in einem zentralisierten System) erfordern ein verteiltes Muster industrieller Analysen, bei dem die Analyse in der Nähe der Datenquelle, die sie analysiert, und des Ziels , an dem die Analyseergebnisse benötigt werden, implementiert wird.

Streaming

Bei der industriellen Analytik kann es sich um kontinuierliche oder Batch-Prozesse handeln. Aufgrund der kontinuierlichen Ausführung in industriellen Systemen wir ein großer Teil der industriellen Analytik in Form von Streaming-Prozessen erfolgen, bei denen Live-Daten analysiert und ein kontinuierlicher Fluss von Analyseergebnissen zur Unterstützung des Betriebs bereitgestellt wird.
Traditionelle Batch-orientierte Analysen werden weiterhin entweder zur Erstellung oder Verbesserung von Analysemodellen oder zur menschlichen Entscheidungsfindung durchgeführt.

Automatic 

Damit die industrielle Analytik kontinuierliche Abläufe unterstützen kann, müssen die Analysen von Datenströmen und die Anwendung von Analyseergebnissen automatisch, dynamisch und kontinuierlich erfolgen. Da die Technologien in der industriellen Analytik fortschreiten, können Verbesserungen in der analytischen Modellierung, z.B. durch Lernen, auch automatisch erfolgen.

Semantics

Analytische Systeme benötigen Daten, die eine Bedeutung und einen Kontext haben. Unstrukturierte Daten, die ohne Zuordnung zum Kurs und zur Komponente oder zum System, das sie repräsentieren, gemeldet werden, machen die Ableitung von Werten komplex, da sie Analysesysteme die Bedeutung erraten oder ableiten müssen.
Unnötige Schlussfolgerungen bringen erhebliche Unsicherheiten in das System. Die meisten Daten können an der Quelle richtig zugeordnet werden, und wenn diese Information weitergegeben wird, kann sie den Erfolg und die Genauigkeit der Analysesysteme erheblich steigern.   
 

Mit den rasanten Entwicklungsstandards und Innovationen in der Sensor- und Computertechnologie ist es nur möglich, fortschrittliche Analysen auf eine große Anzahl von Maschinen weltweit auszuweiten. Fortschrittliche analysealgortihmen und -Techniken, einschließlich des maschinellen Lernens, werden jetzt zur Analyse großer Datenmengen aus industriellen Steuerungssystemen eingesetzt. Die aus der Analyse gewonnenen Erkenntnisse können automatisch angewendet werden, um die Betriebseffizienz von Maschinen zu erhöhen, indem z.B. Verbrauchsspitzen vorausgesehen werden, die Lieferketten für Teile, die für die vorbeugende Wartung benötigt werden, rationalisiert werden und die Geschäftsplanung und Entscheidungsfindung unterstützt wird.
Durch die Nutzung der aus den Maschinendaten gewonnenen Erkenntnisse zur Steuerung intelligenter Betriebs- und Geschäftsprozesse ermöglicht die industrielle Analytik die Konvergenz der Analytik in der OT- und IT.-Welt.

Mittwoch, 13. Juli 2022

Meine Gedanken zur Baseline des Connectivity Framework

 Die Baseline ist eine Technologie, die alle Konnektivitätsanforderungen für einen Funktionsbereich erfüllen kann. Um die Konnektivitätsarchitektur überschaubar zu halten, wird ein Technologiestandard für die Konnektivität innerhalb einer funktionalen Domäne verwendet werden, und bilden eine Schnittstelle zu Konnektivitäts-Kernstandards in anderen funktionalen Domänen. Gateways dienen als Brücke zu anderen Konnektivitätstechnlogien innerhalb der Domäne und zu den Konnektivitäts-Kernstandards, die in anderen funktionalen Domänen verwendet werden. Die Konnektivität zwischen funktionalen Doomänen, die oft in einer abgestuften Weise implementiert ist, kann intermittierend sein. Konnektivitäts-Gateways können dazu beitragen, diese intermittierende Konnektivität zu mildern. Die Anwendungen sind einfacher und leichter zu warten, wenn keine Logik erforderlich ist, um auf einen fehlgeschlagenen Datenaustasch zu reagieren.

Endpunkte können direkt mit der Baseline verbunden werden. Andere Endpunkte und Subsysteme werden über Gateways angeschlossen. 

Konnektivitäts-Gateways ermöglichen die Einbindung neuer Konnektivitätstechnologien. Sie bieten eine stabile Grundlage , die in den heute verfügbaren „Best-of-Bred“-Technologien verankert ist, können aber in der Zukunft auf einen neuen grundlegenden Kernstandard umgestellt werden, der die Anforderungen besser erfüllt.



Meine Gedanken zum Connectivity-Framework

Das übergreifende Ziel der IIoT-Konnektivität besteht darin, Daten in diesen isolierten System („Silos“) freizulegen und den Datenaustausch und die Interoperabilitiät zwischen zuvor geschlossenen Komponenten und Subsystemen (Brownfields) und neuen Anwendungen (Greenfield) innerhalb und über Branchen hinweg zu ermöglichen.

Neue Konnektivitätstechnologien müssen während der Lebensdauer eines Systems mit bestehenden Technologien integriert werden. Eine Konnektivitätsarchitektur muss die Interoperabilität einer Vielzahl von Konnektivitätstechnoloigien innerhalb einer Branche und branchenübergreifend ermöglichen, um die Visison eines branchenübergreifenden IIoT zu unterstützen.

Eine Konnektivitäts-Kernstandardtechnologie (Baseline) ist eine Technologie, die alle Konnektivitätsanforderungen für einen Funktionsbereich erfüllen kann. 

Gateways haben zwei Funktionen: Sie integrieren andere Konnektivitätstechnologien, die innerhalb einer funktionalen Domäne verwendet werden, und bilden eine Schnittstelle zu Konnektivitäts-Kernstandards in anderen funktionalen Domänen.

Um die Konnektivitätsarchitektur überschaubar zu halten, wird ein Technologiestandard für die Konnektivität innerhalb einer funktionalen Domäne als Grundlinie gewählt und als „Kernstandard für die Konnektivität“ bezeichnet. Gateways dienen als Brücke zu anderen Konnektivitätstechnologien innerhalb der Domäne und zu den Konnektivitäts-Kernstandards, die in anderen funktionalen Domänen verwendet werden. Die Konnektivität zwischen funktionalen Domänen, die oft in einer abgestuften Weise implementiert ist, kann intermittierend sein. Konnektivitäts-Gateways können dazu beitragen, diese intermittierende Konnektivität zu mildern. Die Anwendungen sind einfacher und leichter zu warten, wenn keine Logik erforderlich ist, um auf einen fehlgeschlagenen Datenaustausch zu reagieren.

Einige Endpunkte können direkt mit einem Kernstandard verbunden werden. Andere Endpunkte und Subsysteme werden über Gateways angeschlossen. Ein Kernstandard verbindet sie dann alle miteinander und ermöglicht die Integration mehrerer Konnektivitätstechnologien, ohne dass zwischen allen möglichen Paaren eine Brücke geschlagen werden muss. Jede domänenspezifische Konnektivitätstechnologie benötigt nur ein Gateway zu einem einzigen Konnektivitäts-Kernstandard.

Konnektivitäts-Gateways ermöglichen die Einbindung neuer Konnektivitätstechnologien. Sie bieten eine stabile Grundlage, die in den heute verfügbaren „Best-of-Breed“-Technologien verankert ist, können aber in der Zukunft auf einen neuen grundlegenden Kernstandard umgestellt werden, der die Anforderungen besser erfüllt.

Es gibt verschiedene Arten von Konnektivitäts-Gateways:

Framework-Gateways erweitern die logische Spanne der Kommunikation über Connectivity Framework Technologien hinweg. Sie behalten die syntaktische Struktur der Daten bei, können aber die technische Darstellung ändern.

Transport-Gateways erweitern die logische Spanne der Kommunikation über Transporttechnologien hinweg. Sie nehmen keine logischen Änderungen an der Bytefolge (Payload) vor und sind für diese transparent.

Physikalische/Verbindungs-/Netzgetways können sich über mehrere Schichten des Konnektivitätsstapels erstrecken.


Über ein Gateway zu einem Kernkonnektivitätsstandard kann ein domänenspezifischen Endpunkt mit Endpunkten auf anderen domänenspezifischen Technologien kommunizieren, die ebenfalls über Gateways mit dem Kernkonnektivitätsstandard verbunden sind. Kernkonnektivitätsendpunkte können direkt miteinander und über Gateways mit domänenspezifischen Konnnektivitätsendpunkten kommunizieren.

Unterschiedliche Funktionsbereiche können aufgrund unterschiedlicher Prioritäten bei den technischen Anforderungen, Kompromissen und Ökosystemen unterschiedliche Kernkonnektivitätsstandards wählen. Um die Kommunikation zwischen verschiedenen Konnektivitätsgrundnormen zu ermöglichen, werden standardisierte Gateways benötigt. Ein standardisiertes Gateway zwischen grundlegenden Konnektivitätsstandards wird als Kern-Gateway bezeichnet. 

Ein Kernstandard für Konnektivität muss:

Syntaktische Interoperabilität bieten, eine offene Norm mit starker unabhängiger, internationaler Führung sein und die Zertifizierung, Validierung oder Prüfung der Interoperabilität von Implementierungen unterstützen, horizontal und neutral in seiner Anwendbarkeit über Branchen hinweg sein, stabil sein und über mehrere vertikale Branchen hinweg eingesetzt werden, über standarddefinierte Core Gateways zu allen anderen Kernstandards der Konnektivität verfügen.


Zu den wichtigsten Funktionen des Konnektivitätsrahmens gehören ein Datenressourcenmodell, Publish-Subscribe- und Request-Reply-Datenaustauschmuster, Datenqualität Datensicherheit und eine Programmier-API

Typische Erwägungen für die Auswahl eines Konnektivitätsrahmens lassen sich in System-,Daten-, Leistungs-, Skalierbarkeits-, Verfügbarkeits-, Bereitstellungs- und Betriebserwägungen unterteilen. Die Kompromisse in jedem Bereich sollten sorgfältig bewertet werden.


Es folgen einige Leitlinien, die auf dem primären Funktionsbereich der Anwendbarkeit der Verbindungstechnologie basieren.

Konnektivitätstechnologien für den Kontrollbereich unterstützen hohe Zuverlässigkeit, schnelle Echtzeitleistung, Skalierung auf eine große Anzahl von Datenobjekten und eine hohe Dienstaualität.

Konnektivitätstechnologien für den Betriebsbereich unterstützen die Überwachung und Verwaltung von Geräten und Anwendungen.

Konnektivitätstechnologien für den Informationsbereich unterstützen die selektive Übertragung große Mengen und einer Vielzahl von Echtzeitdaten für Streaming-Analysen und Entscheidungsprozesse in Echtzeit.

Konnektivitätstechnologien für den Anwendungsbereich werden externe APIs und Benutzerschnittstellen (UIs) unterstützen, einschließlich Webbrowsern und mobilen Handhelds.

Konnektivitätstechnologien für den Unternehmensbereich werden herkömmliche IT-Anwendungen und Rechenzentren unterstützen.


Wenn die Gateways  für die Konnektivitätsstandards für die Konnektivitätstechnologien vorhanden sind, ermöglicht die IIoT-Konnektivitätsarchitektur die Kommunikation zwischen bisher isolierten Endpunkten. Sie kann neue Wertströme erschließen und dazu beitragen, das volle Potenzial des IIoT auszuschöpfen.



Montag, 4. Juli 2022

Meine Gedanken zum Digitalen Zwilling

 Digitale Zwillinge stärken den Lebenszyklus vom Entwurf, Ausführung, Änderung und Außerbetriebnahme eines Produkts. Natürlich finden digitale Zwillinge von der Konzeption bis zur Stilllegung einen Platz im Produktlebenszyklus. Im Großen und Ganzen gibt es drei Arten von digitalen Zwillingen - Produktzwilling, Produktinszwilling und Leistungszwilling:


Produkt-Zwillinge: Die Entwicklung einer physischen Anlage ist eine komplexe und teure Phase des Produktlebenszyklus. Obwohl sich die Welt des Designs von 2D-Blaupausen zu eigenständigen 3D-Simulationen entwickelt hat, ist die Forschung und Entwicklung immer noch durch eine begrenzte Zusammenarbeit eingeschränkt.

Produktion Zwillinge: Ein reibungsloser Betriebsablauf ist für jedes Unternehmen von entscheidender Bedeutung. Trotz der digitalen Transformation sind viele Betriebs- und Produktionsprozesse immer noch in Silos untergebracht und bieten kein vollständiges Bild.

Digitale Zwillinge bieten nicht nur Einblicke in Teile und Komponenten, sondern haben auch das Potenzial , die große Verflechtung der Produktionsumgebungen sichtbar zu machen - einen ganzen Prozess, eine Fabrik oder sogar eine Stadt. Indem sie Modelle virtueller Produktionseinheiten ermöglichen , nutzen digitale Zwillinge Echtzeitdaten und -Technologien, um den Produktionsprozess für die Menschen , die die Einheit betreiben, zu optimieren.

Leistungszwillinge: Unnötige Ausfallzeiten, Störungen oder Schäden sind der Albtraum eines jeden Unternehmens. Jeder Aspekt der 5M- Mensch, Maschine, Material, Methode und Management - kann zu einem unerwünschten Ergebnis führen. 

Digitale Zwillinge kombinieren die physikalischen Eigenschaften und Daten der Sensoren und der Betriebsumgebung mit hochentwickelten Vorhersagealgorithmen. Digitale Zwillinge können Unternehmen dabei helfen, von dem, was geschehen ist, auf das zu schließen, was wahrscheinlich geschehen wird. Digitale Zwillinge dienen auch als Rahmen für das Wissensmanagement, indem sie historische Zustände und Leistungen speichern und zukünftige Zustände und Designinformationen vorhersagen. Mit digitalen Zwillingen streben Unternehmen nach starken Abfrage- (Vergangenheit) und Superlativ-Vorhersagefähigkeiten (Zukunft).

Das Ökosystem des digitalen Zwillings

Im vorherigen Abschnitt haben wir die drei Arten von digitalen Zwillingen untersucht: 

Produktzwillinge, Produktionszwillinge und Leistungszwillinge. Jetzt wollen wir eine Ebene tiefer gehen, um die Implementierungsaspekte der digitalen Zwillinge und des größeren Ökosystems zu verstehen.

Machen wir uns zunächst mal mit einigen Konzepten Vertraut , die das Ökosystem der digitalen Zwillinge betreffen.

Digitaler Zwilling-Prototyp (DTP): Ein DTP ist der Prototyp eines physischen Vermögenswerts verbunden. Die DTI enthält in der Regel Daten zu den von den Sensoren erfassten Betriebsbedingungen, zum historischen Zustand, zum voraussichtlichen Zustand, zu Anlagen-und Gewährleistungsinformationen, zu Serviceaufzeichnungen usw. Während ein DTI mit den Anfangsinformationen seines Prototyps beginnt, wird das DTI im Laufe des Lebenszyklus mit Betriebsdaten angereichert.

Digitale Zwillingsinstanz (DTI): Eine DTI (erstellt aus dem DTP) ist der Zwilling eines physischen Assets. Die DTI bleibt während ihres Lebenszyklus mit dem physischen Vermögenswert verbunden. Die DTI enthält in der Regel Daten zu den von den Sensoren erfassten Betriebsbedingungen, zum historischen Zustand, zum voraussichtlichen Zustand, zu Anlagen- und Gewährleisutngsinformationen, zu Serviceaufzeichnungen usw. Während ein DTI mit den Anfangsinformationen eines Prototyps beginnt, wird das DTI im Laufe des Lebenszyklus mit Betriebsdaten angereichert.

Die digitale Zwillingsumgebung (DTE) ist eine Sammlung der oben genannten Komponenten, die digitalen Zwillingsarena für die prädikativen und die abfragenden Operationen.


Freitag, 1. Juli 2022

Meine Gedanken zum CPS und Digital Twin

 Ich beschäftige mich ja schon einige Zeit mit Cyber-Physical-Systeme und natürlich taucht das Thema Digital Twins immer wieder auf.

Jetzt mal zum Digitalen Zwilling :

Der digitale Zwilling ist ein Konzept, kein einzelnes Produkt oder ein Stück Technologie. Mehrere Technologien - 3D Simulation, IoT/IIoT, 4G/5G, Big Data, Blockchain, Edge & Cloud Computing und künstliche Intelligenz - kommen zusammen, um das Konzept Wirklichkeit werden zu lassen.

Die ReferenzArchitektur teilt sich in eine Logische Architektur und Physical Architektur

Logische Architektur

Logische Architektur teilt sich in folgende Bereiche:

Model: Die Reise zum digitalen Zwilling beginnt mit der Modellierung der physischen Assets. Die Konvertierung vorhandener 2D-Modelle ist eine Möglichkeit. Eine andere Möglichkeit besteht darin , in Ermangelung vorhandener Modelle neu zu beginnen. Zu diesem Zweck steht eine Vielzahl von Modellierungswerkzeugen zur Verfügung.

Kommunikation: Sobald das Model steht, ermöglicht das IoT die Kommunikation zwischen der physischen und der digitalen Welt. Die Sensoren und Technologien variieren je nach Zwilling.

Assimilate: Assimilatinsschichten reichern die Daten der Anlagen mit Daten aus anderen Systemen an, um ein verbessertes Bild der physischen Welt zu erhalten. Dabei kann es sich beispielsweise um Informationen wie Teilenummern, Ersatzteile im Bestand usw. Handeln.

Action: Die Aktionsschicht ermöglicht prognostische und diagnostische Fähigkeiten. Diese Schicht stellt eine Vorwärts - (Prognose) und Rückwärts- (Diagnose) Verbindung zwischen der physischen und der digitalen Welt her.

Physikalische Architektur


Sensoren und Aktuatoren

Sensoren erfassen die Zustandsinformationen und Eigenschaften eines physischen Objekts. Welche IoT-Sensoren eingesetzt werden, hängt vom Bedarf und den zu erfassenden Daten ab. Erfassen Sie z.B,die Temperatur des Motors.

Aktoren nehmen Eingaben von den digitalen Zwillingen entgegen und führen eine Aktion am physischen Asset aus. Zum Beispiel, die Geschwindigkeit des Motors zu reduzieren.

Gerade hier sehe ich eben Überschneidungen zu CPS 

Operative Systeme & Master-Entry-Systeme

Neben den Sensordaten werden auch Informationen aus operativen Systemen wie Trouble Ticketing, SCADA-Steuerungen und Master-Entry-Systemen wie Asset- und Inventory Management die digitale Darstellung des Zwillings verbessern.

Parsing und Verarbbeitung von Daten

Die Schicht für die Datenanalyse und -Verarbeitung empfängt die Daten, analysiert sie, bereinigt sie und normalisiert sie für die weitere Verarbeitung IoT-Plattformen verwalten die Geräte, die Daten aus der physischen Welt sammeln.

Simulation und Modellierung

Das Herzstück eines digitalen Zwillingsprogramms, die Simulation und Modellierung , ist der Ort, an dem alle Informationen und Erkenntnisse für Diagnose- und Prognosezwecke zusammenlaufen. Bei der Modellierung kommen einfache Regeln bis hin zu komplexen KI-Algorithmen zum Einsatz. Die modellierten Informationen werden dann - unter Verwendung von 3D-Simulatinstechniken - simuliert, damit der Benutzer sie nutzen und handeln kann.

Case Management

Basierend auf dem Zweck der digitalen Zwillinge kann das Fallmanagement eine kollaborative Umgebung für verschiedene Interessengruppen und Nutzer ermöglichen, die an der Eingabe und Ausgabe arbeiten.

Dashboarding und Berichterstattung

Die Präsentationsschicht mit Dashboards und Berichten für die Benutzer.