Künst­liche Intel­li­genz (KI) & Machine Learning (ML)

Zur Lösung von Aufgaben in indus­tri­ellen Anwen­dungs­ge­bieten

Die Themen Künst­liche Intel­li­genz (KI) und Machine Learning (ML) haben den gesamten indus­tri­ellen Bereich und speziell den Maschinen- und Anlagenbau mit konkreten, prakti­schen Anwen­dungs­mög­lich­keiten erfasst. Diese Themen stellen kein rein akade­mi­sches Forschungs­ge­biet mehr dar, sondern sind durch ihre Handhab­bar­keit in der Realwirt­schaft angekommen. Ihre wirtschaft­li­chen Vorteile sind für zukunfts­ori­en­tierte Unter­nehmen eine große Chance, bzw. eine Notwen­dig­keit geworden. Ermög­licht wurde dies durch die Steige­rung von Rechen­leis­tungen, kosten­güns­tige Cloud-Speicher­lö­sungen, zur Verfü­gung stehende große Daten­mengen und insbe­son­dere die Verbes­se­rung und Verfüg­bar­keit entspre­chender Algorithmen und Biblio­theken. Mittels maschi­nellen Lernens lassen sich bisher nicht geschlossen lösbare Frage­stel­lungen beant­worten, bestehende Prozesse sowie Prozess- und Produkt­qua­lität noch weiter optimieren, Prognosen für die Zukunft ableiten und darauf aufbauend neue Geschäfts­mo­delle entwi­ckeln.

Mit den Methoden der agilen Software­ent­wick­lung, Exper­tise bei der Imple­men­tie­rung neuer Tools und Erfah­rung in der prakti­schen Umset­zung im Maschinen- und Anlagenbau und im Shopf­loor können wir Sie auf dem Weg zur Anwen­dung Künst­li­cher Intel­li­genz und indivi­du­ellen Machine Learning-Lösungen effektiv unter­stützen.

Wolfram Schäfer, Geschäftsführer von iT Engineering Software Innovations beschreibt Künstliche Intelligenz & Machine Learning

„Der Traum von der selbst­ler­nenden und intel­li­genten Maschine wird langsam Wirklich­keit und kommt im normalen indus­tri­ellen Bereich, in den Anwen­dungs­ge­bieten des Maschinen- und Anlagen­baus an. Durch den Einsatz Künst­li­cher Intel­li­genz und des Machine Learnings bieten sich Möglich­keiten und Vorteile mit einem völlig neuen, ungeahnten Poten­tial zur Lösung von Problemen, zur Optimie­rung von Prozessen, zur Steige­rung der Qualität und für Vorher­sagen des Verhal­tens von Maschinen in der Zukunft.

Die bishe­rigen, erfolg­rei­chen Techno­lo­gien und Methoden aus der Hochspra­chen­ent­wick­lung sind weiterhin richtig und wichtig und werden immer ein Bestand­teil der nachhal­tigen Software­ent­wick­lung bleiben. Das agile Vorgehen in der Software­ent­wick­lung wird durch KI und ML nicht obsolet. Doch das zusätz­lich Neue und Inter­es­sante für alle Branchen und Bereiche im Maschinen- und Anlagenbau ist, aus struk­tu­rierten und beson­ders aus unstruk­tu­rierten Daten Muster zu erkennen, Algorithmen zu entwi­ckeln und daraus Erkennt­nisse für die konkrete Situa­tion und die Zukunft ableiten zu können.

Jedes moderne, zukunfts­ori­en­tierte Unter­nehmen sollte sich spätes­tens jetzt mit der Künst­li­chen Intel­li­genz und Machine Learning beschäf­tigen: Prüfen Sie, wo Sie schon immer scheinbar „unlös­bare“ Probleme haben oder lassen Sie sich von Beispielen anderer Unter­nehmen inspi­rieren. Schauen Sie, ob bzw. wo Sie nützliche Daten­be­stände haben oder ab sofort aufbauen können. Dann starten Sie möglichst bald mit einem kleineren Projekt, um erste Erfah­rungen zu sammeln und schnell erste Erfolge zu erzielen. Lassen Sie sich auf dem Weg zum eigenen Know-how in Ihrem Haus von externen Experten begleiten. Erfah­rungs­gemäß wird der Einstieg nur dadurch zum Erfolg, schützt Sie vor Enttäu­schungen bzw. falschen Erwar­tungen oder gar Schäden durch falsche Ergeb­nisse.

Da viele andere Unter­nehmen Ihrer Branche auch in KI und ML inves­tieren, sollten auch Sie die Themen angehen, um am Ball zu bleiben. Und wenn Sie das machen, machen Sie es am besten gleich richtig mit einem erfah­renen Partner an der Seite. Wir unter­stützen Sie mit unseren Dienst­leis­tungen und begleiten Sie dabei!“

Wolfram Schäfer

Eintei­lung der Künst­li­chen Intel­li­genz

Grafik zeigt Klassifizierung von Künstlicher Intelligenz in untergeordnete Bereiche

Sämtliche Compu­ter­tech­no­lo­gien zur Nachah­mung mensch­li­cher Intel­li­genz

Werkzeuge, Algorithmen und Methoden zur Konzep­tion, Model­lie­rung und Umset­zung von Künst­li­cher Intel­li­genz

Nachbil­dung der Grund­idee der Infor­ma­ti­ons­ver­ar­bei­tung im mensch­li­chen Gehirn

Neuro­nale Netze mit vielen Hidden Layers, trainiert durch große Daten­mengen

Super­vised Learning

Algorithmus lernt Funktion aus vorge­ge­benen Ein- und Ausga­be­werten

 

Unsuper­vised Learning

Algorithmus erkennt ohne zusätz­liche Vorgabe von Ausga­be­werten selbst­ständig Muster in Einga­be­daten, etwa um diese in Klassen einzu­teilen („Cluste­ring“)

Semi-super­vised Learning

nur für einen Teil der Eingaben sind die dazuge­hö­rigen Ausgaben bekannt

 

Reinfor­ce­ment Learning

Algorithmus lernt durch „Beloh­nung“ und „Bestra­fung“, wie in poten­tiell auftre­tenden Situa­tionen zu handeln ist, um Nutzen zu maximieren

Faktoren, die zur wachsenden Bedeu­tung von Machine Learning in indus­tri­ellen Anwen­dungs­fällen führen

Rechen­leis­tungen von Compu­tern steigen

Rechner-Kapazi­täten steigen u. a. durch den Einsatz von Graphik-Prozes­soren, bei hoher Verfüg­bar­keit (durch z. B. Cloud-/ Edge-Cloud-Anwen­dungen) zu sinkenden Kosten, da häufig flexible, nutzungs­ab­hän­gige Abrech­nungs­mo­delle genutzt werden.

Exponen­ti­elles Wachstum von Daten­mengen

Durch die Digita­li­sie­rung steigen die Daten­mengen, welche zur Weiter­ent­wick­lung von Algorithmen nötig sind. Zudem wird die Speiche­rung großer Daten­mengen immer kosten­güns­tiger. Trainings­daten sind der wichtigste Treiber und notwen­dige Voraus­set­zung für Fortschritte beim Machine Learning!

Verbes­serte Algorithmen

Algorithmen zur Verar­bei­tung struk­tu­rierter und unstruk­tu­rierter Daten werden konti­nu­ier­lich weiter­ent­wi­ckelt. Sie können komple­xere Aufgaben noch schneller mit weniger Rechen­leis­tung lösen. Zudem wird Ihre Anwen­dung immer einfa­cher – mittler­weile gibt es sehr viele frei verfüg­bare Frame­works für die Arbeit mit KI/ ML, welche die Einstiegs­hürden stark reduzieren.

Kommu­ni­ka­tion von Objekten

Das IIoT ermög­licht Objekten die Kommu­ni­ka­tion physi­ka­li­scher Zustände (z. B. Tempe­ratur, Druck, Bewegung etc.) und die Inter­ak­tion mit anderen Objekten oder ihrer Umgebung. Heraus­for­de­rungen in diesem Zusam­men­hang sind die Konnek­ti­vität  und Antwort­zeiten annähernd in Echtzeit.

Anwen­dungs­mög­lich­keiten

z. B. Beurtei­lung der Qualität von Oberflä­chen mit Texturen in der indus­tri­ellen Bildver­ar­bei­tung.
Vorgehen: Algorithmen werden mit von Menschen beurteilten Bildern von typischen Gut-Teilen angelernt. Das System lernt, wie ein Gut-Teil mit zuläs­sigen Streu­ungen auszu­sehen hat. Daraus ergibt sich ein Erwar­tungs­bild. Abwei­chungen von diesem Erwar­tungs­bild werden erkannt und als Auffäl­lig­keiten einge­stuft.

z. B. Optimie­rung komplexer physi­ka­li­scher Maschi­nen­pro­zesse in der Produktion mit zahlrei­chen Parame­tern und Einfluss­größen, deren Einfluss auf den Prozess nicht bekannt ist.
Voraus­set­zung: ausrei­chende Menge an Daten­sätzen mit Einfluss­größen, bei denen das Ergebnis zufrie­den­stel­lend war.

z. B. Indus­trial-Analy­tics-Projekt zum Verbes­sern der Gesamt­an­la­gen­ef­fek­ti­vität (Verfüg­bar­keit, Leistung, Qualität) zur Ermitt­lung des Optimie­rungs­po­ten­zials der Anlage/ Maschine bzw. der Produktion.
Empfeh­lung: Speiche­rung großer Daten­mengen am Ort der Entste­hung, z. B. in einer Edge-Cloud auf einem Standard-IPC (Indus­trie Personal Computer).

z. B. automa­ti­siertes Angebot für komplexe Maschinen/ Anlagen mit vielen Optionen und Konfi­gu­ra­ti­ons­mög­lich­keiten nach indivi­du­ellem Kunden­wunsch.
Voraus­set­zung: ausrei­chender Satz histo­ri­scher Daten von Maschi­nen­kon­fi­gu­ra­tionen und Kosten in struk­tu­rierter Form mit laufender Aktua­li­sie­rung hinsicht­lich neu verfüg­barer Optionen, Kosten­an­pas­sungen etc.

z. B. autonom fahrende Fahrzeuge im Automo­bil­be­reich, Erken­nung von Kredit­kar­ten­be­trug und Aktien­markt­ana­lysen in der Finanz­wirt­schaft, Vorher­sage von Leistungs­spitzen in der Energie­wirt­schaft, Klassi­fi­ka­tion von Nukleo­tid­se­quenzen (DNA) in der medizi­ni­schen Forschung, Sprach- und Texter­ken­nung im IT-/Kommu­ni­ka­ti­ons­sektor u. v. a. m.

„Parade­bei­spiel“: Voraus­schau­ende Wartung (Predic­tive Mainten­ance)

Predic­tive Mainten­ance stellt den wohl greif­barsten und nahelie­gendsten Anwen­dungs­fall von Indus­trie 4.0 dar. Durch die konti­nu­ier­liche Erhebung von Daten aus der Produktion sowie deren Analyse mittels Verfahren des maschi­nellen Lernens oder der Statistik lässt sich der gegen­wär­tige Zustand von Produk­ti­ons­ma­schinen bestimmen und dessen zukünf­tige Entwick­lung voraus­be­rechnen. Ein Nachlassen in der Produk­ti­ons­leis­tung oder Produkt­qua­lität oder gar der Ausfall von Maschinen kann somit frühzeitig erkannt werden. Im Ideal­fall gelingt es, Instand­hal­tungs­maß­nahmen anzubieten bzw. zu beauf­tragen, noch bevor es zu Problemen kommt.

Für den Anlagen­be­treiber liegt der Nutzen sowohl in der gestei­gerten Produk­ti­ons­leis­tung – Verfüg­bar­keit und Qualität – als auch in der Reduk­tion von Kosten für Instand­hal­tungs­ar­beiten und Lager­hal­tung. Das Poten­zial der voraus­schau­enden Instand­hal­tung fußt dabei auf folgenden Eckpfei­lern der Digita­li­sie­rung: Vernet­zung und Kommu­ni­ka­tion der Maschinen, moderne Sensor­technik und digitale Daten sowie automa­ti­sierte und intel­li­gente Daten­ana­lyse (z. B. durch unüber­wachtes Lernen).

Grafik zeigt verschiedene Instandhaltungsstrategien in Abhängigkeit von Produktionsleistung und technologischer Kompetenz

Vorteile durch vorausschauende Wartung

Senkung der Wartungs­kosten

um bis zu 30 %

Reduzie­rung der Still­stand­zeiten

um bis zu 70 %

Neues Denken durch daten­ge­trie­bene Entwick­lung von Lösungen

Bishe­riges Vorgehen

Grafik zeigt die bisherige Vorgehensweise bei der Entscheidungsfindung von Algorithmen ausgehend

Neues Vorgehen

Grafik zeigt die Entscheidungsfindung im Machine Learning ausgehend von Datenbeständen
Grafik zeigt die datengetriebene Entscheidungsfindung bei Machine Learning

Daten haben die zentrale Bedeu­tung im Machine Learning

  • Der Zugang zu quali­tativ hochwer­tigen Daten ist die Grund­lage und notwen­dige Voraus­set­zung für ML:
    z. B. Daten aus Steue­rungen, von Sensoren, Aktoren, aus Daten­banken, Produk­ti­ons­fluss­daten, Wetter­daten etc.

  • Algorithmen können Muster in ausrei­chend vorhan­denen Daten erkennen. Es ist nicht immer vorher­sehbar, welche und wie viele Daten für die erfor­der­liche Modell­qua­lität und Genau­ig­keit erfor­der­lich sind. Mehr Daten führen nicht notwen­di­ger­weise zu mehr Mustern.

Wenn Machine Learning-Algorithmen den Motor für künftige Entwick­lungen und Lösungen darstellen, dann sind Daten der Treib­stoff. Daten sind das A und O des maschi­nellen Lernens.

Bedeu­tung des Internet der Dinge (IoT)

Für die Umset­zung von Indus­trie 4.0 und KI-Projekten spielen die sog. Cyber-physi­sche Systeme (CPS) eine beson­dere Rolle. Basie­rend auf ihrer Techno­logie kann von jedem physi­ka­li­schen System eine digitale Kopie im Cyber­space aufge­baut werden und diese bilden dann – bezogen auf den indus­tri­ellen Bereich – das Indus­tri­elle Internet der Dinge (Indus­trial Internet of Things, IIoT). Ermög­licht werden CPS unter anderen durch folgende techni­sche Entwick­lungen:

IPv6

Diese vor wenigen Jahren einge­führten Internet-Adressen haben eine Länge von 128 Bit. Sie bilden mit 1038 mögli­chen Adressen einen Adress­raum, mit dem theore­tisch jedem Sandkorn auf der Erde eine eigene IP-Adresse zugeordnet werden könnte. Im Gegen­satz zum IPv4-Internet können in einem IPv-Internet fast beliebig viele Geräte bzw. Endpunkte aufge­nommen werden und so in einem Netzwerk gleich­zeitig angespro­chen werden. Durch die gleich­zei­tige Vernet­zung von Sensoren, Aktoren, produ­zierten Teilen oder Produkten, ist es auch möglich, Infor­ma­tionen ständig zwischen diesen Objekten auszu­tau­schen. IPv6-Internet ermög­licht also das IoT im eigent­li­chen Sinn,  die perma­nente Kommu­ni­ka­tion zwischen sehr vielen Objekten in einem unter Umständen sehr großen Netzwerk.

RFID (radio-frequency identi­fi­ca­tion)

Ein RFID-Chip besteht aus einem Mikro­chip und einer Antenne. Der Chip funktio­niert passiv und erhält seine Energie aus dem elektri­schen Feld des RFID-Scanners. Dadurch werden mithilfe elektro­ma­gne­ti­scher Wellen drahtlos dem Scanner Daten des RFID-Chips übermit­telt, wie z. B. die ID, techni­sche Merkmale, Produk­ti­ons­daten, Zustands­daten etc. In der Produktion sind diese Systeme sehr gut und kosten­günstig einsetzbar.

Mithilfe dieser Techno­lo­gien lassen sich z. B. die gesamte Produktion mit allen Maschinen, Sensoren, Aktoren, Werkzeugen, Materia­lien, Ferti­gungs­teilen etc. und Prozessen in die digitale Welt trans­for­mieren und dokumen­tieren, überwa­chen, steuern etc. Dadurch entstehen riesige – für Machine Learning wertvolle – Mengen an Daten, die wiederum nur mit Verfahren des Machine Learnings (z. B. unüber­wachtes Lernen) beherrscht werden können. Hier schließt sich also der Kreis neuer Techno­lo­gien aus der realen Welt mit innova­tiven Methoden aus dem Software-Enginee­ring zum Vorteil und Nutzen in der indus­tri­ellen Anwen­dung.

Vorgehen bei der Einfüh­rung von KI-/ML-Projekten

CRISP-DM (Cross Industry Standard Process for Data Mining)

Dies ist ein branchen­über­grei­fender Standard­pro­zess mit einem itera­tiven, agilen Vorgehen, der allge­meine Ansätze beschreibt, die bei Data-Science-Projekten verwendet werden.

Grafik zeigt Vorgehensmodell CRISP DM

Geschäftsverständnis (business understanding)

„Bekomme ein Aufgaben- und Prozess­ver­ständnis“
Die Projekt­ziele und ‑anfor­de­rungen sind aus der Geschäfts­per­spek­tive zu verstehen, um daraus das Data-Mining-Problem zu definieren und einen vorläu­figen Plan zum Errei­chen der Ziele zu erarbeiten. → Externe Unter­stüt­zung kann bei der Abschät­zung der Chancen und Risiken durch Digita­li­sie­rung und Machine Learning sinnvoll sein.

Datenverständnis (data understanding)

„Sichte die Daten und verstehe sie“
erste Daten­er­he­bung, um sich mit den Daten vertraut zu machen, Daten­qua­li­täts­pro­bleme zu identi­fi­zieren, inter­es­sante Teilmengen zu erkennen oder Hypothesen zu versteckten Infor­ma­tionen aufzu­stellen. → Eigener Wissens­aufbau ist erfor­der­lich, die (externe) Unter­stüt­zung durch Anwen­dungs­ex­perten, Data Scien­tists und Steue­rungs­ex­perten kann geboten sein.

Datenaufbereitung (data preparation)

„Bereite die Daten vor, säubere und trans­for­miere sie“
Die Erstel­lung des endgül­tigen Daten­satzes: Tabellen, Daten­sätze und Attri­bute auswählen und Daten für Model­lie­rungs­werk­zeuge trans­for­mieren und berei­nigen. Der Aufwand dieses Schrittes beträgt ca. 50–70 % des gesamten Analy­se­pro­jekts. → Zukauf­bare Software­pro­dukte können als Werkzeuge zur Beschleu­ni­gung des Prozesses einge­setzt werden; aller­dings ist dies abhängig von der vorlie­genden Qualität der Daten.

Modellierung (modeling)

„Erzeuge Modelle und generiere Wissen“
Auswahl und Anwen­dung von Model­lie­rungs­tech­niken und Erstel­lung eines oder mehrerer Modelle, die aus Sicht der Daten­ana­lyse eine hohe Qualität verspre­chen Eventuell ist die Rückkehr in die Phase der Daten­auf­be­rei­tung erfor­der­lich, um die Form der Daten zu ändern.

Auswertung (evaluation)

„Inter­pre­tiere die Ergeb­nisse“
Gründ­liche Evalua­tion der erstellten Modelle im Hinblick auf die Erfül­lung der ML- Ziele und Prüfung, ob ein wichtiges Geschäfts­pro­blem nicht ausrei­chend berück­sich­tigt wurde. → Zukauf­bare Software­pro­dukte mit fertigen Algorithmen und Entwick­ler­werk­zeugen sind verfügbar; meist sind Anpas­sungen bis hin zu Neuent­wick­lungen erfor­der­lich.

Bereitstellung (deployment)

„Setze alles im Prozess um“
Imple­men­tie­rung und Organi­sa­tion des gewon­nenen Wissens zum Nutzen des Kunden. Aufbau einer entspre­chend leistungs­fä­higen IT-Infra­struktur vom Sammeln, Speichern und Auswerten der Daten, bis zum Einspeisen der Ergeb­nisse in den Prozess. → Zur IT-Integra­tion kann die Unter­stüt­zung durch externe Experten erfor­der­lich sein. 

Software-Tools und Platt­formen

Nachfol­gende Tabelle zeigt einige gängige Deep-Learning-Frame­works bzw. Platt­formen:
Frame­workKurzbe­schrei­bungSprachenUrsprung
CaffeProgramm­bi­blio­thek für Deep Learning
  • Python
  • C++, Matlab
Berkeley Vision and Learning Center, Univer­sity of California
Deeplearning4jOpen-Source-Software für Deep-Learning, die ein künst­li­ches neuro­nales Netz imple­men­tiert
  • Java
  • Scala, Clojure
  • Kotlin
  • Python
Adam Gibson, Skymind Enginee­ring Team, DL4J Commu­nity
KerasOpen Source Deep-Learning-Biblio­thek, ab Version 1.4.0 auch in der Tensor­Flow-API enthalten
  • Python
  • R
François Chollet
MXNetOpen Source Deep-Learning-Software, die zum Trainieren und Bereit­stellen von Deep-Neural-Netzwerken verwendet wird
  • C++
  • Python
  • Julia
  • Matlab
  • JavaScript
  • Go
  • R
  • Scala
  • Perl
Apache Software Founda­tion
OpenNNOpen Source Biblio­thek, die ein künst­li­ches neurales Netz imple­men­tiert
  • C++
Artel­nics
Tensor­FlowFrame­work zur daten­stro­m­ori­en­tierten Program­mie­rung, das populär im Bereich des maschi­nellen Lernens einge­setzt wird.
  • Python
  • C/C++
  • R
  • Go
  • Java
  • JavaScript
  • Swift
Google Brain Team
TorchWissen­schaft­li­ches Frame­work und Open-Source-Biblio­thek für maschi­nelles Lernen
  • Lua
  • LuaJIT
  • C
  • Python (PyTorch)
Ronan Collobert, Clement Farabet, Koray Kavuk­cuoglu

Neues Denken durch daten­ge­trie­bene Entwick­lung von Lösungen

Einsatz neuro­naler Netze in der Praxis

Beim Einsatz künst­li­cher neuro­naler Netze z. B. für Regres­si­ons­schät­zungen stellt sich die Frage nach der richtigen Anzahl von Neuronen. Neuronen bestimmen die Freiheits­grade einer Regres­sion und somit die Speicher­ka­pa­zität des neuro­nalen Netzes. Ziel ist es, die Anzahl der Freiheits­grade möglichst gering zu halten, um zu vermeiden, dass das neuro­nale Netz die Daten nur auswenig lernt und nicht versteht. Bei einer zu geringen Neuro­nen­an­zahl hat das Netz zu wenig Kapazität, um allge­meine Muster erkennen zu können. Es ist zu klein, um die Trainings­daten zu lernen, die Genau­ig­keit ist schon auf den Trainings­daten gering (Under­fit­ting). Bei zu vielen Neuronen hingegen, ist das Netz zu groß, um verall­ge­mei­nern zu müssen, und die Genau­ig­keit auf unbekannten Eingaben ist gering (Overfit­ting). Daher muss zwischen den erreich­baren Genau­ig­keiten auf Basis der bekannten Lerndaten und der Güte im Anwen­dungs­fall für unbekannte Daten stets ein Kompro­miss getroffen werden (Genera­li­sie­rungs­fehler). Zur Beurtei­lung der Qualität neuro­naler Netze wurden deshalb Gütemaße entwi­ckelt.

Deep Learning bei der Bilder­ken­nung

Ein erfolg­reich auf Muster­er­ken­nung trainiertes Deep-Learning-Netz kann große Probleme bei der Klassi­fi­ka­tion haben, wenn z. B. in einem Bild zusätz­lich ein neues, bisher nicht trainiertes Objekt erscheint. Dann wird mögli­cher­weise im Ganzen etwas anderes, etwas völlig Falsches „erkannt“ und das Machine Learning Modell ordnet den Input der falschen Klasse zu. Das liegt daran, dass das Netz keinerlei seman­ti­sche Intel­li­genz besitzt. Weiterhin sind Aussagen, die induktiv gewonnen wurden, stets nur statis­ti­sche Ergeb­nisse. Die Entschei­dungs­re­geln sind in einer Blackbox verborgen. Es bleibt also immer ein gewisses Fehler­ri­siko erhalten.

Aus diesen Gründen ist es wichtig, mit Exper­ten­wissen und Erfah­rung in ein Machine Learning Projekt zu starten, um die Chancen und Risiken korrekt zu beurteilen.

Litera­tur­emp­feh­lungen

  • VDMA Leitfaden „Daten­nut­zung – Eine Orien­tie­rungs­hilfe zur Vertrags­ge­stal­tung für den Mittel­stand
  • DIN IEC 62443–3‑3: System­an­for­de­rungen zur IT-Sicher­heit und Security-Level“
  • VDMA Leitfaden „Inter­ope­ra­bi­lität durch standar­di­sierte Merkmale für Indus­trie 4.0“
  • VDMA Leitfaden „Indus­trie 4.0 – Orien­tie­rungs­hilfe zur Einfüh­rung in den Mittel­stand“
  • VDMA-White­paper „Platt­for­m­öko­nomie im Maschi­nenbau – Prakti­sche Tipps und Erfah­rungen von Anwen­dern“
  • VDMA Leitfaden „Indus­trie 4.0 Kommu­ni­ka­tion mit OPC UA“
  • VDMA-Stellung­nahme „Künst­liche Intel­li­genz im Maschi­nenbau – Perspek­tiven und Handlungs­emp­feh­lungen“
  • BDI-Grund­satz­pa­pier „Künst­liche Intel­li­genz – Handlungs­emp­feh­lungen zur Umset­zung der deutschen und europäi­schen KI-Strategie“
  • VDMA Quick Guide Machine Learning

Unsere Empfeh­lungen

iT Enginee­ring Software Innova­tions ist Ihr kompe­tenter Dienst­leister von der Planung, über die Durch­füh­rung bis zur Imple­men­tie­rung von KI/ ML-Lösungen im indus­tri­ellen Bereich.

Case Study

In dieser Case Study zeigen wir anschau­lich, wie es uns mit modernen Methoden des maschi­nellen Lernens gelungen ist, die Positio­nier­ge­nau­ig­keit eines Indus­trie­ro­bo­ters – bei gleich­blei­bender Taktzeit – um fast 50 Prozent zu verbes­sern.

Glossar

Künst­liche Intel­li­genz ist ein Teilge­biet der Infor­matik, welches sich mit der Automa­ti­sie­rung intel­li­genten Verhal­tens und dem maschi­nellen Lernen (Machine Learning) befasst. „… maschi­nelle Simula­tion jedes Aspekts von Lernen und anderer Fähig­keiten der mensch­li­chen Intel­li­genz, wie Sprach­ver­ständnis, Abstrak­tion und Entwick­lung von Ideen.“ [McCarthy, 1955]. KI-Systeme sind digitale Geräte und Maschinen, auf denen sehr clevere Software­ver­fahren und Algorithmen mit höherer Mathe­matik in Echtzeit laufen.

Compu­ter­sys­teme, die auf Augen­höhe mit Menschen arbeiten und diese bei schwie­rigen Aufgaben unter­stützen können. Die starke KI hat das Ziel, mensch­liche Problem­lö­sungs­krea­ti­vität, Selbst­be­wusst­sein und Emotionen abzubilden. Stand der Technik und in naher Zukunft kann die Form der starken Künst­li­chen Intel­li­genz technisch noch nicht abgebildet werden. Dieser Zeitpunkt wird mit Singu­la­rität bezeichnet.

Das mensch­liche Denken und techni­sche Anwen­dungen werden bei konkreten Anwen­dungs­pro­blemen unter­stützt. Die schwache KI fokus­siert auf die Lösung konkreter Anwen­dungs­fälle durch Simula­tion von Intel­li­genz durch Methoden der Infor­matik, der Statistik und der Mathe­matik. Im indus­tri­ellen Bereich finden wir nur Anwen­dungen, die der schwa­chen Künst­li­chen Intel­li­genz zugeordnet werden können (lernende Intel­li­genz der Stufe I2).

Kognitiv intel­li­gent beschreibt KI-Systeme, bei denen die Methoden der induk­tiven und der deduk­tiven Wissens­ver­ar­bei­tung optimal mitein­ander verschmolzen sind.

  • Induk­tives Schließen
    basiert auf Beobach­tungen und der intui­tiven Annahme, dass auf Basis dieser Beobach­tungen (stets mit begrenzter Anzahl) auf eine Grund­ge­samt­heit geschlossen werden kann (Lernen auf Daten, z. B. beim Maschi­nellen Lernen). Diese Ergeb­nisse sind aller­dings stets statis­tisch bzw. wahrschein­lich­keits­be­haftet. Wird z. B. mit der empiri­schen Modell­bil­dung bei der Blackbox-Methode angewendet.
  • Deduk­tives Schließen
    erfolgt auf Basis von als wahr definierter Prämissen durch logisches Schluss­fol­gern, insbe­son­dere in der Mathe­matik. Wird z. B. mit der analy­ti­schen Modell­bil­dung bei der Whitebox-Methode angewendet.

Maschi­nelles Lernen ist ein Oberbe­griff für die „künst­liche“ Generie­rung von Wissen aus Daten (Erfah­rungen): Ein künst­li­ches System lernt aus Beispielen (Trainings­daten) und kann diese nach Beendi­gung der Lernphase durch Muster­er­ken­nung verall­ge­mei­nern. Dazu bauen Algorithmen beim maschi­nellen Lernen ein statis­ti­sches Modell auf.

    • Symbo­li­sche Ansätze:
      Das Wissen, sowohl die Beispiele als auch die induzierten Regeln sind explizit bekannt (reprä­sen­tiert). Unter­schieden wird zwischen aussa­gen­lo­gi­schen (z. B. ID3, C4.5) und prädi­ka­ten­lo­gi­schen (Anwen­dung in der induk­tiven logischen Program­mie­rung) Systemen.
    • Nicht-symbo­li­sche (sub-symbo­li­sche) Ansätze:
      Ein berechen­bares Verhalten wird zwar „antrai­niert“, jedoch besteht kein Einblick in die erlernten Lösungs­wege. Das Wissen ist implizit reprä­sen­tiert, z. B. bei künst­li­chen neuro­nalen Netzen.

Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt ein „Lehrer“ während des Lernens den korrekten Funkti­ons­wert zu einer Eingabe bereit.
Vertreter: Delta-Lernregel (einfa­ches Verfahren); Backpro­pa­ga­tion-Lernregel, LSTM-Netze (Long Short-Term Memory) und CNN (Convo­lu­tional Neural Networks, Neuro­nale Faltungs­netz­werke), diese stellen die Idee des Deep-Learning-Systems dar.

  • Teilüber­wachtes Lernen (semi-super­vised learning):
    Nur für einen Teil der Eingaben sind die dazuge­hö­rigen Ausgaben bekannt.

Der Algorithmus lernt durch Beloh­nung und Bestra­fung eine Taktik, wie in poten­ziell auftre­tenden Situa­tionen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkom­po­nente gehört) zu maximieren. Dies ist die häufigste Lernform beim Menschen und basiert auf den Beloh­nungs­prin­zi­pien.
Vertreter: Q‑Learning.

  • Aktives Lernen (active learning):
    Der Algorithmus hat die Möglich­keit für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Infor­ma­ti­ons­ge­winn verspre­chen, um die Anzahl der Fragen möglichst klein zu halten.

Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein statis­ti­sches Modell, das die Eingaben beschreibt und erkannte Katego­rien und Zusam­men­hänge enthält. Man trainiert also nicht auf ein Ziel hin, sondern erhält Infor­ma­tionen über die Eingangs­daten. Das Verfahren dient beim maschi­nellen Lernen dem Data Mining.
Vertreter: Hebb´sche Lernregel (ältestes Lernver­fahren), Compe­ti­tive Networks und SOM-Lernregel (Selbst-Organi­sie­rende Merkmals­karten); die beiden letzt­ge­nannten Verfahren zeigen, wie Lernen in der KI funktio­nieren kann.

  • Cluste­ring-Verfahren:
    Die Daten werden in mehrere Katego­rien einge­teilt, die sich durch charak­te­ris­ti­sche Muster vonein­ander unter­scheiden. Das Verfahren erstellt somit selbständig Klassi­fi­ka­toren (Zugehö­rig­keits­bil­dung), nach denen es die Einga­be­muster einteilt.
  • Haupt­kom­po­nen­ten­ana­lyse (Dimen­si­ons­re­duk­tion, PCA):
    Das Verfahren verzichtet auf die Katego­ri­sie­rung. Es zielt durch Kompri­mie­rung darauf ab, die beobach­teten Daten in eine einfa­chere Reprä­sen­ta­tion zu übersetzen, die sie trotz drastisch reduzierter Infor­ma­tion möglichst genau wieder­gibt.

Batch-Lernen:
alle Eingabe/ Ausgabe-Paare werden gleich­zeitig trainiert

Konti­nu­ier­li­ches (sequen­zi­elles) Lernen:
die Eingaben werden zeitlich versetzt bzw. nachein­ander verar­beitet

Offline-Lernen:
das Training wird auf einem festste­henden Daten­satz durch­ge­führt, der sich nicht verän­dert

Online-Lernen:
Die Eingaben erfolgen auch sequen­ziell, werden aber sofort verar­beitet

Künst­liche neuro­nale Netze (Netzwerke) bestehen aus künst­li­chen Neuronen, die entweder eine lineare oder eine nicht-lineare mathe­ma­ti­sche Funktion darstellen. Sie sind Forschungs­ge­gen­stand der Neuro­in­for­matik und stellen einen Zweig der künst­li­chen Intel­li­genz dar. Künst­liche Neuronen haben biolo­gi­sche Neuronen als Vorbild.

Grafik zeigt künstliche neuronale Netze

Dies sind die einfachsten Struk­turen von KNN. Sie besitzen keine versteckten Schichten. Die feedfor­ward-Eigen­schaft besagt, dass Neuro­nen­aus­gaben nur in Verar­bei­tungs­rich­tung geleitet werden und nicht durch eine rekur­rente (rückge­kop­pelte) Kante zurück­ge­führt werden können (azykli­scher, gerich­teter Graph).

Grafik zeigt einschichtiges feedworward-Netz

Sie besitzen neben der Ausga­be­schicht auch verdeckte Schichten, deren Ausgaben außer­halb des Netzes nicht sichtbar sind. Verdeckte Schichten verbes­sern die Abstrak­tion (z. B. Multi-Layer-Percep­tions, MLP). Das mehrschich­tige Perzep­tron (englisch percep­tion = Wahrneh­mung) kann das XOR-Problem (Testpro­blem für NN) im Gegen­satz zu einschich­tigen Netzen lösen.

Grafik zeigt ehrschichtiges feedworward-Netz

Sie besitzen im Gegen­satz zu feedfor­ward-Netzen auch rekur­rente (rückge­rich­tete) Kanten und enthalten somit eine Rückkopp­lung. Solche Kanten werden dann häufig mit einer Zeitver­zö­ge­rung versehen, sodass bei einer schritt­weisen Verar­bei­tung die Neuro­nen­aus­gaben der vergan­genen Zeitein­heit wieder als Eingaben angelegt werden können. Diese Rückkopp­lungen ermög­li­chen ein Verhalten, das dynamisch in der zeitli­chen Abfolge der Daten­punkte ist und statten das rekur­rente Netz mit einem Gedächtnis aus.

Grafik zeigt rekurrierendes Netz

Deep Learning ist der Oberbe­griff für alle künst­li­chen, neuro­nalen Netze, die verdeckte Schichten benutzen (z.B. mehrschich­tige feedfor­ward-Netze, Convo­lu­tional Neural Network (CNNs), rekur­rente. neuro­nale Netze) usw.). Durch die freie Verfüg­bar­keit von Deep-Learning-Frame­works und bereits vortrai­nierter Netze ist Deep Learning für den Einsatz in der Indus­trie präde­sti­niert. Dabei wird der Einsatz nicht nur auf die Verar­bei­tung von perzep­tu­ellen Daten wie Videos, Bilder oder Sprache beschränkt bleiben.

Grafik zeigt Deep Learning mit mehrschichtigen Netzen

 

mehrsc

Darunter versteht man die syste­ma­ti­sche Anwen­dung compu­ter­ge­stützter, statis­ti­scher Methoden auf große Daten­be­stände mit dem Ziel, unbekannte, nicht-triviale Struk­turen, Zusam­men­hänge und Trends zu erkennen.

  • Big Data
    steht für das Verar­beiten großer, hetero­gener Daten­mengen aus verschie­denen Quellen, deren Geschwin­dig­keit und Daten­typen.
  • Small Data
    wird in den nächsten Jahren immer wichtiger, da nicht für alle Anwen­dungs­fälle Big Data-Quellen zur Verfü­gung stehen, aber auch diese Daten als Grund­lage für KI dienen sollen.
Scroll to Top

Gib hier deine Überschrift ein

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.