Künst­liche Intel­li­genz (KI) & Machine Learning (ML)

Zur Lösung von Aufgaben in indus­tri­ellen Anwendungsgebieten

Die Themen Künst­liche Intel­li­genz (KI) und Machine Learning (ML) haben den gesamten indus­tri­ellen Bereich und speziell den Maschinen- und Anlagenbau mit konkreten, prakti­schen Anwen­dungs­mög­lich­keiten erfasst. Diese Themen stellen kein rein akade­mi­sches Forschungs­ge­biet mehr dar, sondern sind durch ihre Handhab­bar­keit in der Realwirt­schaft angekommen. Ihre wirtschaft­li­chen Vorteile sind für zukunfts­ori­en­tierte Unter­nehmen eine große Chance, bzw. eine Notwen­dig­keit geworden. Ermög­licht wurde dies durch die Steige­rung von Rechen­leis­tungen, kosten­güns­tige Cloud-Speicher­lö­sungen, zur Verfü­gung stehende große Daten­mengen und insbe­son­dere die Verbes­se­rung und Verfüg­bar­keit entspre­chender Algorithmen und Biblio­theken. Mittels maschi­nellen Lernens lassen sich bisher nicht geschlossen lösbare Frage­stel­lungen beant­worten, bestehende Prozesse sowie Prozess- und Produkt­qua­lität noch weiter optimieren, Prognosen für die Zukunft ableiten und darauf aufbauend neue Geschäfts­mo­delle entwickeln.

Mit den Methoden der agilen Software­ent­wick­lung, Exper­tise bei der Imple­men­tie­rung neuer Tools und Erfah­rung in der prakti­schen Umset­zung im Maschinen- und Anlagenbau und im Shopf­loor können wir Sie auf dem Weg zur Anwen­dung Künst­li­cher Intel­li­genz und indivi­du­ellen Machine Learning-Lösungen effektiv unterstützen.

Wolfram Schäfer, Geschäftsführer von iT Engineering Software Innovations beschreibt Künstliche Intelligenz & Machine Learning

„Der Traum von der selbst­ler­nenden und intel­li­genten Maschine wird langsam Wirklich­keit und kommt im normalen indus­tri­ellen Bereich, in den Anwen­dungs­ge­bieten des Maschinen- und Anlagen­baus an. Durch den Einsatz Künst­li­cher Intel­li­genz und des Machine Learnings bieten sich Möglich­keiten und Vorteile mit einem völlig neuen, ungeahnten Poten­tial zur Lösung von Problemen, zur Optimie­rung von Prozessen, zur Steige­rung der Qualität und für Vorher­sagen des Verhal­tens von Maschinen in der Zukunft.

Die bishe­rigen, erfolg­rei­chen Techno­lo­gien und Methoden aus der Hochspra­chen­ent­wick­lung sind weiterhin richtig und wichtig und werden immer ein Bestand­teil der nachhal­tigen Software­ent­wick­lung bleiben. Das agile Vorgehen in der Software­ent­wick­lung wird durch KI und ML nicht obsolet. Doch das zusätz­lich Neue und Inter­es­sante für alle Branchen und Bereiche im Maschinen- und Anlagenbau ist, aus struk­tu­rierten und beson­ders aus unstruk­tu­rierten Daten Muster zu erkennen, Algorithmen zu entwi­ckeln und daraus Erkennt­nisse für die konkrete Situa­tion und die Zukunft ableiten zu können.

Jedes moderne, zukunfts­ori­en­tierte Unter­nehmen sollte sich spätes­tens jetzt mit der Künst­li­chen Intel­li­genz und Machine Learning beschäf­tigen: Prüfen Sie, wo Sie schon immer scheinbar „unlös­bare“ Probleme haben oder lassen Sie sich von Beispielen anderer Unter­nehmen inspi­rieren. Schauen Sie, ob bzw. wo Sie nützliche Daten­be­stände haben oder ab sofort aufbauen können. Dann starten Sie möglichst bald mit einem kleineren Projekt, um erste Erfah­rungen zu sammeln und schnell erste Erfolge zu erzielen. Lassen Sie sich auf dem Weg zum eigenen Know-how in Ihrem Haus von externen Experten begleiten. Erfah­rungs­gemäß wird der Einstieg nur dadurch zum Erfolg, schützt Sie vor Enttäu­schungen bzw. falschen Erwar­tungen oder gar Schäden durch falsche Ergebnisse.

Da viele andere Unter­nehmen Ihrer Branche auch in KI und ML inves­tieren, sollten auch Sie die Themen angehen, um am Ball zu bleiben. Und wenn Sie das machen, machen Sie es am besten gleich richtig mit einem erfah­renen Partner an der Seite. Wir unter­stützen Sie mit unseren Dienst­leis­tungen und begleiten Sie dabei!“

Wolfram Schäfer

Eintei­lung der Künst­li­chen Intelligenz

Grafik zeigt Klassifizierung von Künstlicher Intelligenz in untergeordnete Bereiche

Sämtliche Compu­ter­tech­no­lo­gien zur Nachah­mung mensch­li­cher Intelligenz

Werkzeuge, Algorithmen und Methoden zur Konzep­tion, Model­lie­rung und Umset­zung von Künst­li­cher Intelligenz

Nachbil­dung der Grund­idee der Infor­ma­ti­ons­ver­ar­bei­tung im mensch­li­chen Gehirn

Neuro­nale Netze mit vielen Hidden Layers, trainiert durch große Datenmengen

Super­vised Learning

Algorithmus lernt Funktion aus vorge­ge­benen Ein- und Ausgabewerten

 

Unsuper­vised Learning

Algorithmus erkennt ohne zusätz­liche Vorgabe von Ausga­be­werten selbst­ständig Muster in Einga­be­daten, etwa um diese in Klassen einzu­teilen („Cluste­ring“)

Semi-super­vised Learning

nur für einen Teil der Eingaben sind die dazuge­hö­rigen Ausgaben bekannt

 

Reinfor­ce­ment Learning

Algorithmus lernt durch „Beloh­nung“ und „Bestra­fung“, wie in poten­tiell auftre­tenden Situa­tionen zu handeln ist, um Nutzen zu maximieren

Faktoren, die zur wachsenden Bedeu­tung von Machine Learning in indus­tri­ellen Anwen­dungs­fällen führen

Rechen­leis­tungen von Compu­tern steigen

Rechner-Kapazi­täten steigen u. a. durch den Einsatz von Graphik-Prozes­soren, bei hoher Verfüg­bar­keit (durch z. B. Cloud-/ Edge-Cloud-Anwen­dungen) zu sinkenden Kosten, da häufig flexible, nutzungs­ab­hän­gige Abrech­nungs­mo­delle genutzt werden.

Exponen­ti­elles Wachstum von Datenmengen

Durch die Digita­li­sie­rung steigen die Daten­mengen, welche zur Weiter­ent­wick­lung von Algorithmen nötig sind. Zudem wird die Speiche­rung großer Daten­mengen immer kosten­güns­tiger. Trainings­daten sind der wichtigste Treiber und notwen­dige Voraus­set­zung für Fortschritte beim Machine Learning!

Verbes­serte Algorithmen

Algorithmen zur Verar­bei­tung struk­tu­rierter und unstruk­tu­rierter Daten werden konti­nu­ier­lich weiter­ent­wi­ckelt. Sie können komple­xere Aufgaben noch schneller mit weniger Rechen­leis­tung lösen. Zudem wird Ihre Anwen­dung immer einfa­cher – mittler­weile gibt es sehr viele frei verfüg­bare Frame­works für die Arbeit mit KI/ ML, welche die Einstiegs­hürden stark reduzieren.

Kommu­ni­ka­tion von Objekten

Das IIoT ermög­licht Objekten die Kommu­ni­ka­tion physi­ka­li­scher Zustände (z. B. Tempe­ratur, Druck, Bewegung etc.) und die Inter­ak­tion mit anderen Objekten oder ihrer Umgebung. Heraus­for­de­rungen in diesem Zusam­men­hang sind die Konnek­ti­vität  und Antwort­zeiten annähernd in Echtzeit.

Anwen­dungs­mög­lich­keiten

z. B. Beurtei­lung der Qualität von Oberflä­chen mit Texturen in der indus­tri­ellen Bildver­ar­bei­tung.
Vorgehen: Algorithmen werden mit von Menschen beurteilten Bildern von typischen Gut-Teilen angelernt. Das System lernt, wie ein Gut-Teil mit zuläs­sigen Streu­ungen auszu­sehen hat. Daraus ergibt sich ein Erwar­tungs­bild. Abwei­chungen von diesem Erwar­tungs­bild werden erkannt und als Auffäl­lig­keiten eingestuft.

z. B. Optimie­rung komplexer physi­ka­li­scher Maschi­nen­pro­zesse in der Produktion mit zahlrei­chen Parame­tern und Einfluss­größen, deren Einfluss auf den Prozess nicht bekannt ist.
Voraus­set­zung: ausrei­chende Menge an Daten­sätzen mit Einfluss­größen, bei denen das Ergebnis zufrie­den­stel­lend war.

z. B. Indus­trial-Analy­tics-Projekt zum Verbes­sern der Gesamt­an­la­gen­ef­fek­ti­vität (Verfüg­bar­keit, Leistung, Qualität) zur Ermitt­lung des Optimie­rungs­po­ten­zials der Anlage/ Maschine bzw. der Produktion.
Empfeh­lung: Speiche­rung großer Daten­mengen am Ort der Entste­hung, z. B. in einer Edge-Cloud auf einem Standard-IPC (Indus­trie Personal Computer).

z. B. automa­ti­siertes Angebot für komplexe Maschinen/ Anlagen mit vielen Optionen und Konfi­gu­ra­ti­ons­mög­lich­keiten nach indivi­du­ellem Kunden­wunsch.
Voraus­set­zung: ausrei­chender Satz histo­ri­scher Daten von Maschi­nen­kon­fi­gu­ra­tionen und Kosten in struk­tu­rierter Form mit laufender Aktua­li­sie­rung hinsicht­lich neu verfüg­barer Optionen, Kosten­an­pas­sungen etc.

z. B. autonom fahrende Fahrzeuge im Automo­bil­be­reich, Erken­nung von Kredit­kar­ten­be­trug und Aktien­markt­ana­lysen in der Finanz­wirt­schaft, Vorher­sage von Leistungs­spitzen in der Energie­wirt­schaft, Klassi­fi­ka­tion von Nukleo­tid­se­quenzen (DNA) in der medizi­ni­schen Forschung, Sprach- und Texter­ken­nung im IT-/Kommu­ni­ka­ti­ons­sektor u. v. a. m.

„Parade­bei­spiel“: Voraus­schau­ende Wartung (Predic­tive Maintenance)

Predic­tive Mainten­ance stellt den wohl greif­barsten und nahelie­gendsten Anwen­dungs­fall von Indus­trie 4.0 dar. Durch die konti­nu­ier­liche Erhebung von Daten aus der Produktion sowie deren Analyse mittels Verfahren des maschi­nellen Lernens oder der Statistik lässt sich der gegen­wär­tige Zustand von Produk­ti­ons­ma­schinen bestimmen und dessen zukünf­tige Entwick­lung voraus­be­rechnen. Ein Nachlassen in der Produk­ti­ons­leis­tung oder Produkt­qua­lität oder gar der Ausfall von Maschinen kann somit frühzeitig erkannt werden. Im Ideal­fall gelingt es, Instand­hal­tungs­maß­nahmen anzubieten bzw. zu beauf­tragen, noch bevor es zu Problemen kommt.

Für den Anlagen­be­treiber liegt der Nutzen sowohl in der gestei­gerten Produk­ti­ons­leis­tung – Verfüg­bar­keit und Qualität – als auch in der Reduk­tion von Kosten für Instand­hal­tungs­ar­beiten und Lager­hal­tung. Das Poten­zial der voraus­schau­enden Instand­hal­tung fußt dabei auf folgenden Eckpfei­lern der Digita­li­sie­rung: Vernet­zung und Kommu­ni­ka­tion der Maschinen, moderne Sensor­technik und digitale Daten sowie automa­ti­sierte und intel­li­gente Daten­ana­lyse (z. B. durch unüber­wachtes Lernen).

verschiedene Instandhaltungsstrategien in Abhängigkeit von Produktionsleistung und technologischer Kompetenz

Vorteile durch vorausschauende Wartung

Senkung der Wartungskosten 

um bis zu 30 % 

Reduzie­rung der Stillstandzeiten 

um bis zu 70 % 

Neues Denken durch daten­ge­trie­bene Entwick­lung von Lösungen 

Bishe­riges Vorgehen

Neues Vorgehen

Grafik zeigt die datengetriebene Entscheidungsfindung bei Machine Learning

Daten haben die zentrale Bedeu­tung im Machine Learning

  • Der Zugang zu quali­tativ hochwer­tigen Daten ist die Grund­lage und notwen­dige Voraus­set­zung für ML:
    z. B. Daten aus Steue­rungen, von Sensoren, Aktoren, aus Daten­banken, Produk­ti­ons­fluss­daten, Wetter­daten etc.

  • Algorithmen können Muster in ausrei­chend vorhan­denen Daten erkennen. Es ist nicht immer vorher­sehbar, welche und wie viele Daten für die erfor­der­liche Modell­qua­lität und Genau­ig­keit erfor­der­lich sind. Mehr Daten führen nicht notwen­di­ger­weise zu mehr Mustern.

Wenn Machine Learning-Algorithmen den Motor für künftige Entwick­lungen und Lösungen darstellen, dann sind Daten der Treib­stoff. Daten sind das A und O des maschi­nellen Lernens. 

Bedeu­tung des Internet der Dinge (IoT)

Für die Umset­zung von Indus­trie 4.0 und KI-Projekten spielen die sog. Cyber-physi­sche Systeme (CPS) eine beson­dere Rolle. Basie­rend auf ihrer Techno­logie kann von jedem physi­ka­li­schen System eine digitale Kopie im Cyber­space aufge­baut werden und diese bilden dann – bezogen auf den indus­tri­ellen Bereich – das Indus­tri­elle Internet der Dinge (Indus­trial Internet of Things, IIoT). Ermög­licht werden CPS unter anderen durch folgende techni­sche Entwicklungen:

IPv6

Diese vor wenigen Jahren einge­führten Internet-Adressen haben eine Länge von 128 Bit. Sie bilden mit 1038 mögli­chen Adressen einen Adress­raum, mit dem theore­tisch jedem Sandkorn auf der Erde eine eigene IP-Adresse zugeordnet werden könnte. Im Gegen­satz zum IPv4-Internet können in einem IPv-Internet fast beliebig viele Geräte bzw. Endpunkte aufge­nommen werden und so in einem Netzwerk gleich­zeitig angespro­chen werden. Durch die gleich­zei­tige Vernet­zung von Sensoren, Aktoren, produ­zierten Teilen oder Produkten, ist es auch möglich, Infor­ma­tionen ständig zwischen diesen Objekten auszu­tau­schen. IPv6-Internet ermög­licht also das IoT im eigent­li­chen Sinn,  die perma­nente Kommu­ni­ka­tion zwischen sehr vielen Objekten in einem unter Umständen sehr großen Netzwerk.

RFID (radio-frequency identification)

Ein RFID-Chip besteht aus einem Mikro­chip und einer Antenne. Der Chip funktio­niert passiv und erhält seine Energie aus dem elektri­schen Feld des RFID-Scanners. Dadurch werden mithilfe elektro­ma­gne­ti­scher Wellen drahtlos dem Scanner Daten des RFID-Chips übermit­telt, wie z. B. die ID, techni­sche Merkmale, Produk­ti­ons­daten, Zustands­daten etc. In der Produktion sind diese Systeme sehr gut und kosten­günstig einsetzbar.

Mithilfe dieser Techno­lo­gien lassen sich z. B. die gesamte Produktion mit allen Maschinen, Sensoren, Aktoren, Werkzeugen, Materia­lien, Ferti­gungs­teilen etc. und Prozessen in die digitale Welt trans­for­mieren und dokumen­tieren, überwa­chen, steuern etc. Dadurch entstehen riesige – für Machine Learning wertvolle – Mengen an Daten, die wiederum nur mit Verfahren des Machine Learnings (z. B. unüber­wachtes Lernen) beherrscht werden können. Hier schließt sich also der Kreis neuer Techno­lo­gien aus der realen Welt mit innova­tiven Methoden aus dem Software-Enginee­ring zum Vorteil und Nutzen in der indus­tri­ellen Anwendung.

Vorgehen bei der Einfüh­rung von KI-/ML-Projekten

CRISP-DM (Cross Industry Standard Process for Data Mining)

Dies ist ein branchen­über­grei­fender Standard­pro­zess mit einem itera­tiven, agilen Vorgehen, der allge­meine Ansätze beschreibt, die bei Data-Science-Projekten verwendet werden.

Grafik zeigt Vorgehensmodell CRISP DM

Geschäftsverständnis (business understanding)

„Bekomme ein Aufgaben- und Prozessverständnis“
Die Projekt­ziele und ‑anfor­de­rungen sind aus der Geschäfts­per­spek­tive zu verstehen, um daraus das Data-Mining-Problem zu definieren und einen vorläu­figen Plan zum Errei­chen der Ziele zu erarbeiten. → Externe Unter­stüt­zung kann bei der Abschät­zung der Chancen und Risiken durch Digita­li­sie­rung und Machine Learning sinnvoll sein.

Datenverständnis (data understanding)

„Sichte die Daten und verstehe sie“
erste Daten­er­he­bung, um sich mit den Daten vertraut zu machen, Daten­qua­li­täts­pro­bleme zu identi­fi­zieren, inter­es­sante Teilmengen zu erkennen oder Hypothesen zu versteckten Infor­ma­tionen aufzu­stellen. → Eigener Wissens­aufbau ist erfor­der­lich, die (externe) Unter­stüt­zung durch Anwen­dungs­ex­perten, Data Scien­tists und Steue­rungs­ex­perten kann geboten sein.

Datenaufbereitung (data preparation)

„Bereite die Daten vor, säubere und trans­for­miere sie“
Die Erstel­lung des endgül­tigen Daten­satzes: Tabellen, Daten­sätze und Attri­bute auswählen und Daten für Model­lie­rungs­werk­zeuge trans­for­mieren und berei­nigen. Der Aufwand dieses Schrittes beträgt ca. 50–70 % des gesamten Analy­se­pro­jekts. → Zukauf­bare Software­pro­dukte können als Werkzeuge zur Beschleu­ni­gung des Prozesses einge­setzt werden; aller­dings ist dies abhängig von der vorlie­genden Qualität der Daten.

Modellierung (modeling)

„Erzeuge Modelle und generiere Wissen“
Auswahl und Anwen­dung von Model­lie­rungs­tech­niken und Erstel­lung eines oder mehrerer Modelle, die aus Sicht der Daten­ana­lyse eine hohe Qualität verspre­chen Eventuell ist die Rückkehr in die Phase der Daten­auf­be­rei­tung erfor­der­lich, um die Form der Daten zu ändern.

Auswertung (evaluation)

„Inter­pre­tiere die Ergebnisse“
Gründ­liche Evalua­tion der erstellten Modelle im Hinblick auf die Erfül­lung der ML- Ziele und Prüfung, ob ein wichtiges Geschäfts­pro­blem nicht ausrei­chend berück­sich­tigt wurde. → Zukauf­bare Software­pro­dukte mit fertigen Algorithmen und Entwick­ler­werk­zeugen sind verfügbar; meist sind Anpas­sungen bis hin zu Neuent­wick­lungen erforderlich.

Bereitstellung (deployment)

„Setze alles im Prozess um“
Imple­men­tie­rung und Organi­sa­tion des gewon­nenen Wissens zum Nutzen des Kunden. Aufbau einer entspre­chend leistungs­fä­higen IT-Infra­struktur vom Sammeln, Speichern und Auswerten der Daten, bis zum Einspeisen der Ergeb­nisse in den Prozess. → Zur IT-Integra­tion kann die Unter­stüt­zung durch externe Experten erfor­der­lich sein. 

Software-Tools und Plattformen

Nachfol­gende Tabelle zeigt einige gängige Deep-Learning-Frame­works bzw. Plattformen: 
Frame­workKurzbe­schrei­bungSprachenUrsprung
CaffeProgramm­bi­blio­thek für Deep Learning
  • Python
  • C++, Matlab
Berkeley Vision and Learning Center, Univer­sity of California
Deeplearning4jOpen-Source-Software für Deep-Learning, die ein künst­li­ches neuro­nales Netz implementiert
  • Java
  • Scala, Clojure
  • Kotlin
  • Python
Adam Gibson, Skymind Enginee­ring Team, DL4J Community
KerasOpen Source Deep-Learning-Biblio­thek, ab Version 1.4.0 auch in der Tensor­Flow-API enthalten
  • Python
  • R
François Chollet
MXNetOpen Source Deep-Learning-Software, die zum Trainieren und Bereit­stellen von Deep-Neural-Netzwerken verwendet wird
  • C++
  • Python
  • Julia 
  • Matlab
  • JavaScript
  • Go
  • R
  • Scala
  • Perl
Apache Software Foundation
OpenNNOpen Source Biblio­thek, die ein künst­li­ches neurales Netz implementiert
  • C++
Artel­nics
Tensor­FlowFrame­work zur daten­stro­m­ori­en­tierten Program­mie­rung, das populär im Bereich des maschi­nellen Lernens einge­setzt wird.
  • Python
  • C/C++
  • R
  • Go 
  • Java
  • JavaScript
  • Swift
Google Brain Team 
TorchWissen­schaft­li­ches Frame­work und Open-Source-Biblio­thek für maschi­nelles Lernen
  • Lua
  • LuaJIT
  • C
  • Python (PyTorch)
Ronan Collobert, Clement Farabet, Koray Kavukcuoglu 

Neues Denken durch daten­ge­trie­bene Entwick­lung von Lösungen 

Einsatz neuro­naler Netze in der Praxis

Beim Einsatz künst­li­cher neuro­naler Netze z. B. für Regres­si­ons­schät­zungen stellt sich die Frage nach der richtigen Anzahl von Neuronen. Neuronen bestimmen die Freiheits­grade einer Regres­sion und somit die Speicher­ka­pa­zität des neuro­nalen Netzes. Ziel ist es, die Anzahl der Freiheits­grade möglichst gering zu halten, um zu vermeiden, dass das neuro­nale Netz die Daten nur auswenig lernt und nicht versteht. Bei einer zu geringen Neuro­nen­an­zahl hat das Netz zu wenig Kapazität, um allge­meine Muster erkennen zu können. Es ist zu klein, um die Trainings­daten zu lernen, die Genau­ig­keit ist schon auf den Trainings­daten gering (Under­fit­ting). Bei zu vielen Neuronen hingegen, ist das Netz zu groß, um verall­ge­mei­nern zu müssen, und die Genau­ig­keit auf unbekannten Eingaben ist gering (Overfit­ting). Daher muss zwischen den erreich­baren Genau­ig­keiten auf Basis der bekannten Lerndaten und der Güte im Anwen­dungs­fall für unbekannte Daten stets ein Kompro­miss getroffen werden (Genera­li­sie­rungs­fehler). Zur Beurtei­lung der Qualität neuro­naler Netze wurden deshalb Gütemaße entwickelt.

Deep Learning bei der Bilderkennung

Ein erfolg­reich auf Muster­er­ken­nung trainiertes Deep-Learning-Netz kann große Probleme bei der Klassi­fi­ka­tion haben, wenn z. B. in einem Bild zusätz­lich ein neues, bisher nicht trainiertes Objekt erscheint. Dann wird mögli­cher­weise im Ganzen etwas anderes, etwas völlig Falsches „erkannt“ und das Machine Learning Modell ordnet den Input der falschen Klasse zu. Das liegt daran, dass das Netz keinerlei seman­ti­sche Intel­li­genz besitzt. Weiterhin sind Aussagen, die induktiv gewonnen wurden, stets nur statis­ti­sche Ergeb­nisse. Die Entschei­dungs­re­geln sind in einer Blackbox verborgen. Es bleibt also immer ein gewisses Fehler­ri­siko erhalten.

Aus diesen Gründen ist es wichtig, mit Exper­ten­wissen und Erfah­rung in ein Machine Learning Projekt zu starten, um die Chancen und Risiken korrekt zu beurteilen.

Litera­tur­emp­feh­lungen

VDMA Leitfaden „Daten­nut­zung – Eine Orien­tie­rungs­hilfe zur Vertrags­ge­stal­tung für den Mittelstand

  • DIN IEC 62443–3‑3: System­an­for­de­rungen zur IT-Sicher­heit und Security-Level“
  • VDMA Leitfaden „Inter­ope­ra­bi­lität durch standar­di­sierte Merkmale für Indus­trie 4.0“
  • VDMA Leitfaden „Indus­trie 4.0 – Orien­tie­rungs­hilfe zur Einfüh­rung in den Mittelstand“
  • VDMA-White­paper „Platt­for­m­öko­nomie im Maschi­nenbau – Prakti­sche Tipps und Erfah­rungen von Anwendern“
  • VDMA Leitfaden „Indus­trie 4.0 Kommu­ni­ka­tion mit OPC UA“
  • VDMA-Stellung­nahme „Künst­liche Intel­li­genz im Maschi­nenbau – Perspek­tiven und Handlungsempfehlungen“
  • BDI-Grund­satz­pa­pier „Künst­liche Intel­li­genz – Handlungs­emp­feh­lungen zur Umset­zung der deutschen und europäi­schen KI-Strategie“
  • VDMA Quick Guide Machine Learning

Unsere Empfeh­lungen

iT Enginee­ring Software Innova­tions ist Ihr kompe­tenter Dienst­leister von der Planung, über die Durch­füh­rung bis zur Imple­men­tie­rung von KI/ ML-Lösungen im indus­tri­ellen Bereich.

Case Study

In dieser Case Study zeigen wir anschau­lich, wie es uns mit modernen Methoden des maschi­nellen Lernens gelungen ist, die Positio­nier­ge­nau­ig­keit eines Indus­trie­ro­bo­ters – bei gleich­blei­bender Taktzeit – um fast 50 Prozent zu verbessern. 

Glossar

Künst­liche Intel­li­genz ist ein Teilge­biet der Infor­matik, welches sich mit der Automa­ti­sie­rung intel­li­genten Verhal­tens und dem maschi­nellen Lernen (Machine Learning) befasst. „… maschi­nelle Simula­tion jedes Aspekts von Lernen und anderer Fähig­keiten der mensch­li­chen Intel­li­genz, wie Sprach­ver­ständnis, Abstrak­tion und Entwick­lung von Ideen.“ [McCarthy, 1955]. KI-Systeme sind digitale Geräte und Maschinen, auf denen sehr clevere Software­ver­fahren und Algorithmen mit höherer Mathe­matik in Echtzeit laufen.

Compu­ter­sys­teme, die auf Augen­höhe mit Menschen arbeiten und diese bei schwie­rigen Aufgaben unter­stützen können. Die starke KI hat das Ziel, mensch­liche Problem­lö­sungs­krea­ti­vität, Selbst­be­wusst­sein und Emotionen abzubilden. Stand der Technik und in naher Zukunft kann die Form der starken Künst­li­chen Intel­li­genz technisch noch nicht abgebildet werden. Dieser Zeitpunkt wird mit Singu­la­rität bezeichnet.

Das mensch­liche Denken und techni­sche Anwen­dungen werden bei konkreten Anwen­dungs­pro­blemen unter­stützt. Die schwache KI fokus­siert auf die Lösung konkreter Anwen­dungs­fälle durch Simula­tion von Intel­li­genz durch Methoden der Infor­matik, der Statistik und der Mathe­matik. Im indus­tri­ellen Bereich finden wir nur Anwen­dungen, die der schwa­chen Künst­li­chen Intel­li­genz zugeordnet werden können (lernende Intel­li­genz der Stufe I2).

Kognitiv intel­li­gent beschreibt KI-Systeme, bei denen die Methoden der induk­tiven und der deduk­tiven Wissens­ver­ar­bei­tung optimal mitein­ander verschmolzen sind.

  • Induk­tives Schließen
    basiert auf Beobach­tungen und der intui­tiven Annahme, dass auf Basis dieser Beobach­tungen (stets mit begrenzter Anzahl) auf eine Grund­ge­samt­heit geschlossen werden kann (Lernen auf Daten, z. B. beim Maschi­nellen Lernen). Diese Ergeb­nisse sind aller­dings stets statis­tisch bzw. wahrschein­lich­keits­be­haftet. Wird z. B. mit der empiri­schen Modell­bil­dung bei der Blackbox-Methode angewendet.
  • Deduk­tives Schließen
    erfolgt auf Basis von als wahr definierter Prämissen durch logisches Schluss­fol­gern, insbe­son­dere in der Mathe­matik. Wird z. B. mit der analy­ti­schen Modell­bil­dung bei der Whitebox-Methode angewendet.

Maschi­nelles Lernen ist ein Oberbe­griff für die „künst­liche“ Generie­rung von Wissen aus Daten (Erfah­rungen): Ein künst­li­ches System lernt aus Beispielen (Trainings­daten) und kann diese nach Beendi­gung der Lernphase durch Muster­er­ken­nung verall­ge­mei­nern. Dazu bauen Algorithmen beim maschi­nellen Lernen ein statis­ti­sches Modell auf.

    • Symbo­li­sche Ansätze:
      Das Wissen, sowohl die Beispiele als auch die induzierten Regeln sind explizit bekannt (reprä­sen­tiert). Unter­schieden wird zwischen aussa­gen­lo­gi­schen (z. B. ID3, C4.5) und prädi­ka­ten­lo­gi­schen (Anwen­dung in der induk­tiven logischen Program­mie­rung) Systemen.
    • Nicht-symbo­li­sche (sub-symbo­li­sche) Ansätze:
      Ein berechen­bares Verhalten wird zwar „antrai­niert“, jedoch besteht kein Einblick in die erlernten Lösungs­wege. Das Wissen ist implizit reprä­sen­tiert, z. B. bei künst­li­chen neuro­nalen Netzen.

Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt ein „Lehrer“ während des Lernens den korrekten Funkti­ons­wert zu einer Eingabe bereit.
Vertreter: Delta-Lernregel (einfa­ches Verfahren); Backpro­pa­ga­tion-Lernregel, LSTM-Netze (Long Short-Term Memory) und CNN (Convo­lu­tional Neural Networks, Neuro­nale Faltungs­netz­werke), diese stellen die Idee des Deep-Learning-Systems dar.

  • Teilüber­wachtes Lernen (semi-super­vised learning):
    Nur für einen Teil der Eingaben sind die dazuge­hö­rigen Ausgaben bekannt.

Der Algorithmus lernt durch Beloh­nung und Bestra­fung eine Taktik, wie in poten­ziell auftre­tenden Situa­tionen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkom­po­nente gehört) zu maximieren. Dies ist die häufigste Lernform beim Menschen und basiert auf den Beloh­nungs­prin­zi­pien.
Vertreter: Q‑Learning.

  • Aktives Lernen (active learning):
    Der Algorithmus hat die Möglich­keit für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Infor­ma­ti­ons­ge­winn verspre­chen, um die Anzahl der Fragen möglichst klein zu halten.

Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein statis­ti­sches Modell, das die Eingaben beschreibt und erkannte Katego­rien und Zusam­men­hänge enthält. Man trainiert also nicht auf ein Ziel hin, sondern erhält Infor­ma­tionen über die Eingangs­daten. Das Verfahren dient beim maschi­nellen Lernen dem Data Mining.
Vertreter: Hebb´sche Lernregel (ältestes Lernver­fahren), Compe­ti­tive Networks und SOM-Lernregel (Selbst-Organi­sie­rende Merkmals­karten); die beiden letzt­ge­nannten Verfahren zeigen, wie Lernen in der KI funktio­nieren kann.

  • Cluste­ring-Verfahren:
    Die Daten werden in mehrere Katego­rien einge­teilt, die sich durch charak­te­ris­ti­sche Muster vonein­ander unter­scheiden. Das Verfahren erstellt somit selbständig Klassi­fi­ka­toren (Zugehö­rig­keits­bil­dung), nach denen es die Einga­be­muster einteilt.
  • Haupt­kom­po­nen­ten­ana­lyse (Dimen­si­ons­re­duk­tion, PCA):
    Das Verfahren verzichtet auf die Katego­ri­sie­rung. Es zielt durch Kompri­mie­rung darauf ab, die beobach­teten Daten in eine einfa­chere Reprä­sen­ta­tion zu übersetzen, die sie trotz drastisch reduzierter Infor­ma­tion möglichst genau wiedergibt.

Batch-Lernen:
alle Eingabe/ Ausgabe-Paare werden gleich­zeitig trainiert

Konti­nu­ier­li­ches (sequen­zi­elles) Lernen:
die Eingaben werden zeitlich versetzt bzw. nachein­ander verarbeitet

Offline-Lernen:
das Training wird auf einem festste­henden Daten­satz durch­ge­führt, der sich nicht verändert

Online-Lernen:
Die Eingaben erfolgen auch sequen­ziell, werden aber sofort verarbeitet

Künst­liche neuro­nale Netze (Netzwerke) bestehen aus künst­li­chen Neuronen, die entweder eine lineare oder eine nicht-lineare mathe­ma­ti­sche Funktion darstellen. Sie sind Forschungs­ge­gen­stand der Neuro­in­for­matik und stellen einen Zweig der künst­li­chen Intel­li­genz dar. Künst­liche Neuronen haben biolo­gi­sche Neuronen als Vorbild.

Grafik zeigt künstliche neuronale Netze

Dies sind die einfachsten Struk­turen von KNN. Sie besitzen keine versteckten Schichten. Die feedfor­ward-Eigen­schaft besagt, dass Neuro­nen­aus­gaben nur in Verar­bei­tungs­rich­tung geleitet werden und nicht durch eine rekur­rente (rückge­kop­pelte) Kante zurück­ge­führt werden können (azykli­scher, gerich­teter Graph).

Grafik zeigt einschichtiges feedworward-Netz

Sie besitzen neben der Ausga­be­schicht auch verdeckte Schichten, deren Ausgaben außer­halb des Netzes nicht sichtbar sind. Verdeckte Schichten verbes­sern die Abstrak­tion (z. B. Multi-Layer-Percep­tions, MLP). Das mehrschich­tige Perzep­tron (englisch percep­tion = Wahrneh­mung) kann das XOR-Problem (Testpro­blem für NN) im Gegen­satz zu einschich­tigen Netzen lösen.

Grafik zeigt mehrschichtiges feedworward-Netz

Sie besitzen im Gegen­satz zu feedfor­ward-Netzen auch rekur­rente (rückge­rich­tete) Kanten und enthalten somit eine Rückkopp­lung. Solche Kanten werden dann häufig mit einer Zeitver­zö­ge­rung versehen, sodass bei einer schritt­weisen Verar­bei­tung die Neuro­nen­aus­gaben der vergan­genen Zeitein­heit wieder als Eingaben angelegt werden können. Diese Rückkopp­lungen ermög­li­chen ein Verhalten, das dynamisch in der zeitli­chen Abfolge der Daten­punkte ist und statten das rekur­rente Netz mit einem Gedächtnis aus.

Grafik zeigt rekurrierendes Netz

Deep Learning ist der Oberbe­griff für alle künst­li­chen, neuro­nalen Netze, die verdeckte Schichten benutzen (z.B. mehrschich­tige feedfor­ward-Netze, Convo­lu­tional Neural Network (CNNs), rekur­rente. neuro­nale Netze) usw.). Durch die freie Verfüg­bar­keit von Deep-Learning-Frame­works und bereits vortrai­nierter Netze ist Deep Learning für den Einsatz in der Indus­trie präde­sti­niert. Dabei wird der Einsatz nicht nur auf die Verar­bei­tung von perzep­tu­ellen Daten wie Videos, Bilder oder Sprache beschränkt bleiben.

Grafik zeigt Deep Learning mit mehrschichtigen Netzen

 

Darunter versteht man die syste­ma­ti­sche Anwen­dung compu­ter­ge­stützter, statis­ti­scher Methoden auf große Daten­be­stände mit dem Ziel, unbekannte, nicht-triviale Struk­turen, Zusam­men­hänge und Trends zu erkennen.

  • Big Data
    steht für das Verar­beiten großer, hetero­gener Daten­mengen aus verschie­denen Quellen, deren Geschwin­dig­keit und Datentypen.
  • Small Data
    wird in den nächsten Jahren immer wichtiger, da nicht für alle Anwen­dungs­fälle Big Data-Quellen zur Verfü­gung stehen, aber auch diese Daten als Grund­lage für KI dienen sollen.
Scroll to Top