IIoT Building Blocks

Aus Daten Wissen generieren

Egal ob einzelner Ferti­gungs­schritt oder kompletter Produk­ti­ons­pro­zess: Rohdaten vom Shopf­loor bieten die Basis, den zentralen KPI der indus­tri­ellen Ferti­gung zu optimieren: Mittels maschi­nellen Lernens kann die Overall Equip­ment Effec­ti­ve­ness (OEE) gestei­gert werden. Das IIoT bildet die Basis für die „vernetzte Produktion“ von morgen und die Daten­grund­lage für jegliche Art der Optimie­rung. Doch das reine Sammeln und Speichern von Daten ist nicht wertschöp­fend. Die Heraus­for­de­rung besteht darin, die Daten sinnvoll aufzu­be­reiten und nutzbrin­gende Infor­ma­tionen daraus zu gewinnen. Diese können für verschie­dene Use Cases genutzt und so zu einem echten Wettbe­werbs­vor­teil werden.

Mit unseren IIoT Building Blocks unter­stützen wir Sie bei diesem Prozess und sorgen dafür, dass Sie schnell und einfach einen Mehrwert aus Ihren Daten generieren können.

Collect

Icon Collect
  • einfache Erfas­sung hochfre­quenter Maschi­nen­daten
  • Daten­er­fas­sung aus mehreren OPC UA-Servern
  • leichte Anbin­dung an Steue­rung über Edge Device
  • unter­schied­liche Daten­quellen
  • schnelle Konfi­gu­ra­tion der zu erfas­senden Daten
  • Unter­stüt­zung sämtli­cher OPC UA- Daten­typen
  • Unter­stüt­zung eigener OPC UA- Daten­typen
  • Unter­stüt­zung des Schnitt­stel­len­stan­dards umati
  • verschie­dene Daten­bank­an­bin­dungen

Explore

Icon Explore
  • schnelle Speiche­rung großer Daten­mengen
  • Visua­li­sie­rung der erfassten Daten nach Ferti­gungs­li­nien, Maschinen oder einzelnen Auswer­tungen
  • Track & Trace aller produk­ti­ons­re­le­vanten Daten
  • flexible, einfach konfi­gu­rier­bare Dashboards
  • als Webclient-Anwen­dung einfach & überall über Browser erreichbar
  • statis­ti­sche Auswer­tung des Daten­be­stands
  • Verwen­dung von Open-Source- Techno­lo­gien

Improve

Icon Improve
  • Optimie­rung durch Methoden des maschi­nellen Lernens
  • Anwen­dung geeig­neter Werkzeuge aus der IIoT/Machine Learning Toolbox
  • Erstellen und Trainieren eines Machine Learning-Modells
  • Bereit­stel­lung des trainierten Modells
  • Optimie­rung auf Basis von Vorher­sagen
  • Ablei­tung von Handlungs­emp­feh­lungen je nach Anwen­dungs­fall

Die IIoT Building Blocks bestehen aus drei aufein­ander aufbau­enden Modulen

Roboter, Tablet und Dashboard mit Maschinendaten zeigen digitale Transformation der Industrie
Bildschirm zeigt Screenshots der IIoT Building Blocks

Collect

Die Vernet­zung von Maschinen und die Erhebung von Daten auf der Feldebene sind Grund­vor­aus­set­zungen für die Digita­li­sie­rung der Ferti­gung. Die Erfas­sung und Aggre­ga­tion von Daten im indus­tri­ellen Umfeld ist aber häufig kosten- und zeitin­tensiv, denn meist existieren hetero­gene Systeme auf dem Shopf­loor. Dies erschwert die Vernet­zung von Maschinen.

Mithilfe unseres iTE-SI Data Collec­tors gelingt die Daten­er­fas­sung problemlos. Der Data Collector kann hochfre­quente Maschi­nen­daten, bis zu 60 kHz  (z.B. von Beschleu­ni­gungs­sen­soren, Antriebs­reg­lern o.ä.) oder auch aus mehreren OPC UA- Servern erfassen. Die Anbin­dung erfolgt einfach über die Steue­rung oder ein Edge Device. Mit der iTE-SI Collector App können Datenin­puts sowie ‑outputs einfach verwaltet werden. Daten werden synchro­ni­siert, homoge­ni­siert und ggf. trans­for­miert. Die Daten­er­fas­sung wird zum Kinder­spiel. Dadurch können Sie sich auf die wirklich wertschöp­fenden Aufgaben konzen­trieren.

Explore

Bereits die struk­tu­rierte Auswer­tung der Daten kann zu ersten Erkennt­nissen verhelfen und verdeut­li­chen, welches Poten­zial Ihre Prozess­daten bieten. Hierfür ist der richtige Umgang mit großen Daten­mengen sowie die Auswahl des zum Unter­nehmen passenden Daten-Nutzungs­sze­na­rios entschei­dend. Abhängig vom konkreten Anwen­dungs­fall kann die geeig­nete Daten­bank­tech­no­logie zur Speiche­rung der Maschi­nen­daten gewählt werden. Um schnell große Daten­mengen speichern zu können, bietet sich der Einsatz von zeitrei­hen­ba­sierten Daten­banken an.

Die Visua­li­sie­rung der erfassten Daten erfolgt auf einem Dashboard, auf welchem Sie indivi­du­elle Auswer­tungen erstellen können. Das Dashboard basiert auf der Open- Source-Lösung Grafana und kann somit jeder­zeit von Ihnen flexibel angepasst werden – auch ohne unsere Hilfe. Zusätz­lich bieten wir passende, kunden­spe­zi­fi­sche Plugins und Widgets.

Schon die optische Aufbe­rei­tung relevanter Daten hilft dem Betreiber der Maschine bei der Beant­wor­tung wieder­keh­render Frage­stel­lungen. Durch die Möglich­keit, für bestimmte Ereig­nisse, wie z.B. die Überschrei­tung eines Grenz­werts, Alarm­me­cha­nismen definieren zu können, werden Reakti­ons­zeiten bei Still­ständen oder Unregel­mä­ßig­keiten verkürzt.

Laptop mit Screenshot zeigt Dashboard mit verschiedenen Auswertungen
Softwareentwickler schauen auf Bildschirm mit Machine Learning Modellen

Improve

Der eigent­liche Nutzen entsteht erst, wenn aus Daten Wissen wird, wenn Vorher­sagen basie­rend auf realen Daten eine Optimie­rung der zukünf­tigen Nutzung oder eine Verbes­se­rung der Qualität ermög­li­chen, wenn also aus Daten gelernt werden kann. Das Erstellen von, der Aufga­ben­stel­lung angepassten Machine Learning-Modellen ist gleich­zeitig die eigent­liche Heraus­for­de­rung und wesent­liche Entwick­lungs­auf­gabe.

Unser Baustein Improve unter­stützt den Data Scien­tist mit angepassten und geeig­neten Entwick­lungs­werk­zeugen, um mittels des anerkannten Vorge­hens­mo­dells CRISP-DM entspre­chende Lösungen entwi­ckeln zu können. Damit lassen sich Daten statis­tisch auswerten, Korre­la­tionen identi­fi­zieren und passende Modelle trainieren. Hierfür stehen mit den IIoT Buildung Blocks  eine Vielzahl an Werkzeugen zur Verfü­gung. Die damit entwi­ckelte Lösung ist in der Lage, aus dem Daten­be­stand u.a. Prognosen zu treffen, Wahrschein­lich­keiten zu berechnen oder sich eingen­ständig an Entwick­lungen anzupassen.

Jetzt können auf Grund­lage der gewon­nenen Infor­ma­tionen ganze Prozesse optimiert oder bisher unbekannte Risiken vermieden werden. Auch strate­gi­sche Unter­neh­mens­ent­schei­dungen, wie die Entwick­lung neuer digitaler Produkte und Geschäfts­mo­delle, können daten­ba­siert getroffen werden.

Vorge­hens­mo­dell CRISP-DM

Das Vorge­hens­mo­dell CRISP-DM (Cross Industry Standard Process for Data Mining) bietet einen Orien­tie­rungs­rahmen für die Generie­rung von Wissen aus großen Daten­mengen und kann durch die itera­tive Vorge­hens­weise bei der Entwick­lung von Machine Learning- Lösungen unter­stützen. Der Prozess gliedert sich in sechs Phasen:

Grafik zeigt Vorgehensmodell CRISP DM

1. Geschäfts­ver­ständnis (business under­stan­ding)

Geschäft­mo­dell und ‑ziele verstehen, Ressourcen, Risiken und Chancen erkennen, Spezi­fi­ka­tion von Zielen, Aufga­ben­stel­lung und Vorge­hens­weisen

2. Daten­ver­ständnis (data under­stan­ding)

Überblick über verfüg­bare Daten verschaffen: Daten analy­sieren, Beispiele anschauen und visua­li­sieren, Daten­qua­lität bestimmen, Fehler erkennen, auf Vollstän­dig­keit beurteilen, Probleme im Hinblick auf Aufga­ben­stel­lung identi­fi­zieren

3. Daten­auf­be­rei­tung (data prepa­ra­tion)

Auswahl der relevanten Daten, Daten berei­nigen (z.B. fehlende Werte behan­deln), Daten zusam­men­führen, forma­tieren und trans­for­mieren, Ergebnis ist finaler Daten­satz als Basis für Model­lie­rung

4. Model­lie­rung (model­ling)

Auswahl der geeig­neten Methode, Maß für Modell­güte festlegen, Modell bzw. mehrere Modelle erstellen, Parameter einstellen, Anwen­dung auf Daten­satz aus Phase 3, techni­sche Bewer­tung der Modell­güte

5. Auswer­tung (evalua­tion)

Abgleich der Daten­mo­delle mit Aufga­ben­stel­lung, Auswahl des passendsten Modells, Bewer­tung der Ergeb­nisse in Hinblick auf die ökono­mi­schen Ziele, Einschät­zung aller Schritte bezüg­lich Zukunfts­fä­hig­keit und Vollstän­dig­keit

6. Bereit­stel­lung (deploy­ment)

Imple­men­tie­rungs­stra­tegie erstellen, Einsatz des Daten­mo­dells in der Praxis planen, Überar­bei­tungs­stra­tegie, Abschluss­be­richt, Beurtei­lung des Gesamt­pro­jekts

Mögliche Anwen­dungs­fälle

Condi­tion Monito­ring

Konti­nu­ier­liche Zustands­er­fas­sung von Maschinen und Anlagen, um eine perma­nente Verfüg­bar­keit zu garan­tieren.

 

Predic­tive Mainten­ance

Monito­ring und Analyse von Live-Daten, um Maschinen und Anlagen proaktiv warten und Still­stände oder Quali­täts­ver­lusten vorher­sagen zu können.

Predic­tive Quality

Überwa­chung der Quali­täts­daten von Maschinen und Sensor­daten, um Quali­täts­ab­wei­chungen frühzeitig erkennen zu können.

Taktzeit­op­ti­mie­rung

Verbes­se­rung bzw. Reduzie­rung der Taktzeit, um die Produk­ti­vität von Maschinen und Anlagen zu erhöhen.

Track & Trace

Rückver­folg­bar­keit sämtli­cher Produkt­be­we­gungen und zugehö­riger Prozess­daten für mehr Trans­pa­renz in der Ferti­gung und Optimie­rung der Produk­ti­ons­pro­zesse.

OEE-Optimie­rung

Steige­rung der Gesamt­an­la­gen­ef­fek­ti­vität bzw. Overall Equip­ment Effec­ti­ve­ness durch Identi­fi­zie­rung von Produk­ti­ons­ver­lusten und Verbes­se­rung der Produkt­qua­lität.

Ihr Nutzen

Über uns

Wir entwi­ckeln seit 20 Jahren indivi­du­elle Software und begleiten so die digitale Trans­for­ma­tion des Maschi­nen­baus sowie der produ­zie­renden Indus­trie auf dem Weg zur Indus­trie 4.0. Mit den Tools aus unseren IIoT Building Blocks unter­stützen wir diese Unter­nehmen dabei, ihre Prozesse daten­ba­siert zu optimieren. Dabei liegt unser Augen­merk auf der einfa­chen und effizi­enten Erfas­sung von Daten und der schnellen Auswert­bar­keit, um so wirklich Poten­zial mittels maschi­nellen Lernens heben zu können. Gerne unter­stützen wir Sie bei Ihrem Projekt!

Drei iTE SI Kollegen besprechen Aufbau einer digitalen Fabrik

FAQ

Mit dem iTE-SI Data Collector können ca. 150.000 Daten­punkte pro Sekunde in eine zeitrei­hen­ba­sierte Daten­bank geschrieben werden. Das ergibt bei 600 Varia­blen eine Abtast­rate von jeweils 4 ms. Die exakte Daten­rate ist abhängig vom einge­setzten OPC UA Server (aktuelle Beckhoff OPC UA Server schaffen ca. 4 ms Abtast­rate) und der zugrun­de­lie­genden Hardware. Die o.g. Zahlen geben einen groben Anhalts­punkt.

Der iTE-SI Data Collector ist nach dem Twelve-Factor-Leitfaden als Cloud Native Micro­ser­vice entwi­ckelt worden und läuft daher bestens in einer Docker-Umgebung als Container-Dienst. Es gibt jedoch auch die Möglich­keit, auf Steue­rungen oder anderen Embedded-Geräten, auf denen keine Docker Runtime zur Verfü­gung steht, den iTE-SI Data Collector als nativen Windows- oder Linux-Dienst zu betreiben. Die Windows-Version benötigt mindes­tens Windows 7, für Linux kann jede gängige Distri­bu­tion einge­setzt werden (Debian, Ubuntu, Arch, …). Der iTE-SI DataCollector hat dabei keinerlei externe Abhän­gig­keiten. Kompa­tible Prozessor-Archi­tek­turen sind x86 und ARM (z.B. auch Raspber­ryPi). Weitere Portie­rungen sind nach Anfrage möglich. Der iTE-SI Data Collector ist hochgradig perfor­mance­op­ti­miert und kommt daher mit sehr wenigen Ressourcen aus. Mindest­an­for­de­rungen sind: 10 MB RAM

Der iTE-Si Data Collector unter­stützt verschie­dene In- und Outputs. Als zeitrei­hen­ba­sierte Daten­banken werden aktuell Influx und Times­ca­leDB (PostgreSQL) unter­stützt. Wo die Daten­bank liegt ist unerheb­lich, sie muss jedoch über ein Netzwerk erreichbar sein. Der iTE-SI Data Collector braucht aller­dings keine Inter­net­ver­bin­dung. Der Betrieb in lokalen Maschinen-Netzen ist daher problemlos möglich. Sie können jedoch auch Daten über das Internet in eine Daten­bank in der Cloud übertragen. Der iTE-SI Data Collector verfügt über einen internen Puffer, um tempo­räre Netzwerk­un­ter­bre­chungen ausglei­chen zu können.

Für die Auswer­tung ist es sinnvoll, die Daten in eine der unter­stützten Zeitrei­hen­da­ten­banken zu schreiben. Grund­sätz­lich obliegt die Auswer­tung dann Ihnen. Wir empfehlen hierfür explizit Grafana und bieten auch geeig­nete Plugins an. Grafana ermög­licht es, Daten aus verschie­densten Quellen abzufragen und in anschau­li­chen Grafiken und Dashboards zu visua­li­sieren. Auch um einen ersten Eindruck von den Daten zu bekommen, bietet Grafana mit dem Data Explorer ein sehr gutes Tool an.

Für alle Verbin­dungen des iTE-SI Data Collec­tors zu Daten­quellen oder ‑Senken kann eine verschlüs­selte Kommu­ni­ka­tion konfi­gu­riert werden. Es stehen auch verschie­dene Möglich­keiten der Authen­ti­fi­zie­rung zur Verfü­gung. Je nach Verbin­dungstyp kann der Sicher­heits­me­cha­nismus variieren. In den meisten Fällen wird zur Verschlüs­se­lung TSL einge­setzt. Die Authen­ti­fi­zie­rung kann über Benut­zer­name und Passwort, Zerti­fi­kate oder Tokens erfolgen. Ein Mithören/Mitschneiden der Daten kann somit effektiv verhin­dert werden.

Der iTE-SI Data Collector speichert die Daten bei einem Netzwerk­aus­fall in einem Puffer, bis die Verbin­dung zur Daten­bank wieder­her­ge­stellt wird. Die Größe des Daten­puf­fers kann limitiert werden, um beschränkten Speicher­ka­pa­zi­täten Rechnung zu tragen. Dabei werden immer die ältesten Daten verworfen, wenn der Puffer voll ist.

Der iTE-SI Data Collector ist ein Service und läuft im Netzwerk entweder direkt auf der Steue­rung oder auf einem Edge Device. Die Konfi­gu­ra­tion erfolgt über eine Web-Appli­ka­tion ausge­führt auf einem Edge Device oder in der Cloud, wodurch jeder im Netzwerk mit dem entspre­chenden Zugang die Konfi­gu­ra­tion schnell und einfach im Browser durch­führen kann. Die App bietet unter anderem die Möglich­keit, verschie­dene Daten­quellen zu durch­su­chen und gezielt jene Varia­blen zur Aufzeich­nung zu konfi­gu­rieren, welche von Inter­esse sind. Die Konfi­gu­ra­tion kann jedoch auch über eine REST-Schnitt­stelle erfolgen, wodurch sich der iTE-SI Data Collector einfach in Ihre Micro­ser­vice-Landschaft integrieren lässt.

Als Inputschnitt­stellen unter­stützen wir OPC UA, TCP Sockets und UDP; als Output InfluxDB und Times­ca­leDB.

Der iTE-SI Data Collector erlaubt eine strea­ming­ba­sierte Homoge­ni­sie­rung der Daten. Es können zum Beispiel Tempe­ra­tur­werte, welche von der Quelle in Grad Fahren­heit angegeben sind, in Grad Celsius umgerechnet und anschlie­ßend in die Daten­bank gespei­chert werden. Grund­sätz­lich lassen sich alle Größen mit dieser strea­ming­ba­sierten Trans­for­ma­tion auf SI-Einheiten umrechnen.

Basie­rend auf den erfassten Daten können Sie mithilfe unserer ML-Toolbox direkt Modelle trainieren und Vorher­sagen über Prozesse und Qualität erstellen.

Machine Learning-Einstei­ger­paket

Sie haben eine Heraus­for­de­rung aus dem Bereich

  • Predic­tive Mainten­ance / Voraus­schau­ende Wartung bzw. Remai­ning Useful Life
  • Predic­tive Quality / Quali­täts­op­ti­mie­rung
  • Track & Trace
  • Fehler­ana­lysen

und wissen noch nicht, ob ein daten­ge­trie­bener Ansatz in Ihrem Fall zum Erfolg führen kann?

Dafür haben wir unser Machine Learning-Einstei­ger­paket konzep­tio­niert. Wir liefern Ihnen unsere Software­pa­kete auf vorkon­fi­gu­rierter Hardware für die Dauer von 3 Monaten zum Test. Dabei werden Sie von unseren Experten in den Berei­chen Collect, Explore und Improve unter­stützt. Am Ende der Laufzeit erhalten Sie einen Abschluss­be­richt mit konkreten Vorschlägen und Verbes­se­rungs­po­ten­zialen von unseren Experten. Danach geben Sie die Hardware wieder an uns zurück oder entscheiden sich für eine weitere Zusam­men­ar­beit mit uns.

Bestand­teile unseres Machine Learning Einstei­ger­pa­ketes:

Angebots­preis 4.900,- € *

*zzgl. der zum Liefer­zeit­punkt gültigen gesetz­li­chen Mehrwert­steuer

Sie möchten mehr über die IIoT Building Blocks erfahren?

Kontak­tieren Sie uns gerne unver­bind­lich.

Scroll to Top

Das ist ein Test

Unser Partner xy...