Künst­liche Intel­li­genz & Machine Learning 

Zur Lösung von Aufgaben in der Industrie

Die Themen Künst­liche Intel­li­genz (KI) und Machine Learning (ML) haben den gesamten indus­tri­ellen Bereich und speziell den Maschinen- und Anlagenbau mit konkreten, prakti­schen Anwen­dungs­mög­lich­keiten erfasst. 

Diese Themen stellen kein rein akade­mi­sches Forschungs­ge­biet mehr dar, sondern sind durch ihre Handhab­bar­keit in der Realwirt­schaft angekommen. Ihre wirtschaft­li­chen Vorteile sind für zukunfts­ori­en­tierte Unter­nehmen eine große Chance, bzw. zur Notwen­dig­keit geworden.

Mittels maschi­nellen Lernens lassen sich bisher nicht geschlossen lösbare Frage­stel­lungen beant­worten, bestehende Prozesse sowie Prozess- und Produkt­qua­lität  optimieren, Prognosen für die Zukunft ableiten und darauf aufbauend neue Geschäfts­mo­delle entwickeln.

Mit Methoden der agilen Software­ent­wick­lung, Exper­tise bei der Imple­men­tie­rung neuer Tools und Erfah­rung in der prakti­schen Umset­zung im Maschinen- und Anlagenbau  können wir Sie auf dem Weg zur Anwen­dung von Machine Learning  und indivi­du­ellen Lösungen der Künst­li­chen Intel­li­genz effektiv unterstützen.

Bild von Wolfram Schäfer

Der Traum von der selbst­ler­nenden und intel­li­genten Maschine wird langsam Wirklich­keit und kommt im indus­tri­ellen Bereich, in den Anwen­dungs­ge­bieten des Maschinen- und Anlagen­baus an.

Durch den Einsatz von Künst­li­cher Intel­li­genz und Machine Learnings bieten sich Möglich­keiten und Vorteile mit ungeahnten Poten­tial zur Lösung von Problemen, zur Optimie­rung von Prozessen, zur Steige­rung der Qualität und für Vorher­sagen des Verhal­tens von Maschinen in der Zukunft.

Die bishe­rigen, erfolg­rei­chen Techno­lo­gien und Methoden aus der Hochspra­chen­ent­wick­lung sind weiterhin richtig und wichtig und werden immer ein Bestand­teil der nachhal­tigen Software­ent­wick­lung bleiben. Das agile Vorgehen in der Software­ent­wick­lung wird durch KI und ML nicht obsolet. Doch das zusätz­lich Neue und Inter­es­sante für alle Bereiche des Maschinen- und Anlagenbau ist, aus struk­tu­rierten und beson­ders aus unstruk­tu­rierten Daten Muster zu erkennen, Algorithmen zu entwi­ckeln und daraus Erkennt­nisse für die konkrete Situa­tion und die Zukunft ableiten zu können.

Jedes moderne, zukunfts­ori­en­tierte Unter­nehmen sollte sich spätes­tens jetzt mit der Künst­li­chen Intel­li­genz und Machine Learning beschäf­tigen: Prüfen Sie, wo Sie schon immer scheinbar „unlös­bare“ Probleme haben oder lassen Sie sich von Beispielen anderer Unter­nehmen inspi­rieren. Schauen Sie, ob bzw. wo Sie nützliche Daten­be­stände haben oder ab sofort aufbauen können. Dann starten Sie möglichst bald mit einem kleineren Projekt, um erste Erfah­rungen zu sammeln und schnell erste Erfolge zu erzielen. Lassen Sie sich auf dem Weg zum eigenen Know-how in Ihrem Haus von externen Experten begleiten. Erfah­rungs­gemäß wird der Einstieg nur so zum Erfolg, schützt Sie vor Enttäu­schungen bzw. falschen Erwar­tungen oder gar Schäden durch falsche Ergebnisse.

Da viele andere Unter­nehmen Ihrer Branche bereits in Lösungen mittels Künst­li­cher Intel­li­genz inves­tieren, sollten auch Sie die Themen angehen, um am Ball zu bleiben. Und wenn Sie dies tun, machen Sie es am besten gleich richtig mit einem erfah­renen Partner an der Seite. Wir unter­stützen Sie mit unseren Dienst­leis­tungen und begleiten Sie dabei!

Wolfram Schäfer

Mehr lesen  Weniger lesen 

Wolfram Schäfer

Geschäfts­führer IT Enginee­ring Software Innovations

Künst­liche Intel­li­genz bei iTE SI

Als Software­un­ter­nehmen am Puls der Zeit arbeiten wir täglich an KI-Lösungen für unsere Kunden aus dem Maschinebau und der produ­zie­renden Indus­trie. Künst­liche Inteli­genz  bewegt, beschäf­tigt und faszi­niert uns – hier geben wir einen kurzen Einblick in unser Verständnis von KI.

YouTube

Mit dem Laden des Videos akzep­tieren Sie die Daten­schutz­er­klä­rung von YouTube.
Mehr erfahren

Video laden

Machine Learning

Machine Learning ist ein Teilge­biet der Künst­li­chen Intel­li­genz, für das in der Praxis schon viele konkrete Anwen­dungen existieren. Dabei werden Systeme befähigt, auf Basis bestehender Daten und Algorithmen Muster zu erkennen und Lösungen zu entwi­ckeln. Die gewon­nenen Erkennt­nisse können verall­ge­mei­nert werden und dienen der Lösung weiterer Probleme und Frage­stel­lungen in der Produktion.

Treiber von Machine Learning in der Industrie

Rechenleistungen von Computern steigen

Rechner­ka­pa­zi­täten steigen u. a. durch den Einsatz von Graphik-Prozes­soren, bei hoher Verfüg­bar­keit (durch z. B. Cloud-/ Edge-Cloud-Anwen­dungen) zu sinkenden Kosten, da häufig flexible, nutzungs­ab­hän­gige Abrech­nungs­mo­delle genutzt werden.

Exponentielles Wachstum von Datenmengen

Durch die Digita­li­sie­rung steigen die Daten­mengen, welche zur Weiter­ent­wick­lung von Algorithmen nötig sind. Zudem wird die Speiche­rung großer Daten­mengen immer kosten­güns­tiger. Trainings­daten sind der wichtigste Treiber und notwen­dige Voraus­set­zung für Fortschritte beim Machine Learning.

Verbesserte Algorithmen

Algorithmen zur Verar­bei­tung struk­tu­rierter und unstruk­tu­rierter Daten werden konti­nu­ier­lich weiter­ent­wi­ckelt. Sie können komple­xere Aufgaben noch schneller mit weniger Rechen­leis­tung lösen. Zudem wird die Anwen­dung immer einfa­cher – mittler­weile gibt es sehr viele frei verfüg­bare Frame­works für die Umset­zung von KI-Lösungen, welche die Einstiegs­hürden stark reduzieren.

Kommunikation von Objekten

Das IIoT ermög­licht Objekten die Kommu­ni­ka­tion physi­ka­li­scher Zustände (z. B. Tempe­ratur, Druck, Bewegung etc.) und die Inter­ak­tion mit anderen Objekten oder ihrer Umgebung. Heraus­for­de­rungen in diesem Zusam­men­hang sind die Konnek­ti­vität  und Antwort­zeiten annähernd in Echtzeit.

Anwen­dungs­mög­lich­keiten von Machine Learning

Einsatz­be­reich:
z. B. Beurtei­lung der Qualität von Oberflä­chen mit Texturen in der indus­tri­ellen Bildverarbeitung.

Vorgehen:
Algorithmen werden mit von Menschen beurteilten Bildern von typischen Gut-Teilen angelernt. Das System lernt, wie ein Gut-Teil mit zuläs­sigen Streu­ungen auszu­sehen hat. Daraus ergibt sich ein Erwar­tungs­bild. Abwei­chungen von diesem Erwar­tungs­bild werden erkannt und als Auffäl­lig­keiten eingestuft.

Einsatz­be­reich:
z. B. bei Optimie­rung komplexer physi­ka­li­scher Maschi­nen­pro­zesse in der Produktion mit zahlrei­chen Parame­tern und Einfluss­größen, deren Einfluss auf den Prozess nicht bekannt ist.

Voraus­set­zung:
ausrei­chende Menge an Daten­sätzen mit Einfluss­größen, bei denen das Ergebnis zufrie­den­stel­lend war.

Einsatz­be­reich:
z. B. Indus­trial-Analy­tics-Projekt zum Verbes­sern der Gesamt­an­la­gen­ef­fek­ti­vität (Verfüg­bar­keit, Leistung & Qualität) zur Ermitt­lung des Optimie­rungs­po­ten­zials der Anlage bzw. Maschine bzw. der Produktion.

Empfeh­lung:
Speiche­rung großer Daten­mengen am Entste­hungsort, z. B. in einer Edge-Cloud auf einem Standard-IPC.

Einsatz­be­reich:
z. B. automa­ti­siertes Angebot für komplexe Maschinen bzw. Anlagen mit vielen Optionen und Konfi­gu­ra­ti­ons­mög­lich­keiten nach indivi­du­ellem Kunden­wunsch.
Voraus­set­zung:
ausrei­chender Satz histo­ri­scher Daten von Maschi­nen­kon­fi­gu­ra­tionen und Kosten in struk­tu­rierter Form mit laufender Aktua­li­sie­rung hinsicht­lich neu verfüg­barer Optionen, Kosten­an­pas­sungen etc.

  • autonom fahrende Fahrzeuge im Automobilbereich
  • Erken­nung von Kreditkartenbetrug
  • Aktien­markt­ana­lysen in der Finanzwirtschaft
  • Vorher­sage von Leistungs­spitzen in der Energiewirtschaft
  • Klassi­fi­ka­tion von Nukleo­tid­se­quenzen (DNA) in der medizi­ni­schen Forschung
  • Sprach- und Texter­ken­nung im IT-/Kommu­ni­ka­ti­ons­sektor

Predic­tive Maintenance

Predic­tive Mainten­ance (Vorauss­schau­ende Wartung) stellt den wohl greif­barsten Anwen­dungs­fall von Indus­trie 4.0 dar. Durch konti­nu­ier­liche Daten­er­fas­sung in der Produktion sowie deren Analyse mittels Verfahren des maschi­nellen Lernens oder der Statistik lässt sich der gegen­wär­tige Zustand von Produk­ti­ons­ma­schinen bestimmen und dessen zukünf­tige Entwick­lung voraus­be­rechnen. Ein Nachlassen in der Produk­ti­ons­leis­tung, der Produkt­qua­lität oder gar der Ausfall von Maschinen kann somit frühzeitig erkannt werden. Im Ideal­fall gelingt es, Instand­hal­tungs­maß­nahmen anzubieten bzw. zu beauf­tragen, noch bevor es zu Problemen kommt.

Für den Anlagen­be­treiber liegt der Nutzen sowohl in der gestei­gerten Produk­ti­ons­leis­tung – Verfüg­bar­keit und Qualität – als auch in der Reduk­tion von Kosten für Instand­hal­tungs­ar­beiten und Lager­hal­tung. Das Poten­zial der voraus­schau­enden Instand­hal­tung fußt dabei auf folgenden Eckpfei­lern der Digita­li­sie­rung: Vernet­zung und Kommu­ni­ka­tion der Maschinen, moderne Sensor­technik und digitale Daten sowie automa­ti­sierte und intel­li­gente Daten­ana­lyse (z. B. durch unüber­wachtes Lernen).

Mehr lesen  Weniger lesen 

Vorteile von Predic­tive Maintenance

  • Senkung der Wartungs­kosten um bis zu 30%
  • Reduzie­rung der Still­stands­zeiten um bis zu 70%
  • Erhöhung der Ausfallsicherheit
  • Steige­rung der Fertigungsqualität
  • Optimie­rung von Prozessen in der Produktion

Es ist wichtig mit Exper­ten­wissen und Erfah­rung in ein Machine Learning Projekt zu starten, um Chancen und Risiken korrekt beurteilen zu können. Wir unter­stützen Sie gerne dabei.

Bild von Wolfram Schäfer

Wolfram Schäfer

Geschäfts­führer IT Enginee­ring Software Innovations

Umset­zung von Predic­tive Maintenance

Der Einstieg in Predic­tive Mainten­ance muss nicht aufwendig oder teuer sein. Mit den IIoT Building Blocks bieten wir eine Lösung, mit der schnell und einfach aus erfassten Daten gelernt werden kann. Die drei Bausteine Collect, Explore und Improve unter­stützen Sie beim Start und der konkreten Umset­zung von Predic­tive Mainten­ance in Ihrer Produktion.

Bedeu­tung von Daten

Wenn Machine Learning-Algorithmen den Motor für künftige Entwick­lungen und Lösungen darstellen, dann sind Daten der Treib­stoff. Daten sind das A und O des maschi­nellen Lernens.

Daten sind der Schlüssel beim Machine Learning

  • der Zugang zu quali­tativ hochwer­tigen Daten ist die Grund­lage für Machine Learning
  • Beispiele sind Daten aus Steue­rungen, Sensoren, Aktoren, Daten­banken, Produk­ti­ons­fluss­daten oder Wetterdaten
  • damit Algorithmen Muster erkennen können, müssen Daten in ausrei­chender Menge vorliegen
  • es ist nicht immer vorher­sehbar, welche und wie viele Daten für die erfor­der­liche Modell­qua­lität und Genau­ig­keit notwendig sind
  • mehr Daten führen nicht unbedingt zu mehr bzw. besseren Mustern

Daten­ge­trie­bene Lösungsfindung

Klassi­sche Vorgehensweise

Im klassi­schen Fall wird der Algorithmus ohne Zuhil­fe­nahme einer Daten­grund­lage vom Menschen entwi­ckelt und auf einen Satz von Einga­be­daten angewendet. Es wird nur ein sehr expli­zites Modell gewählt, das durch genaue Analyse des Problems gefunden wird. Die daraus resul­tie­rende Ausgabe wird für die Entschei­dung herangezogen.

Vorge­hens­weise mit Machine Learning

Der Mensch gibt nur ein sehr allge­meines Modell vor, das durch Festle­gung von Parame­tern kalibriert wird. Das Modell „lernt“ aus den Daten und passt sein zuvor willkür­li­ches Verhalten an das gewünschte Verhalten an. Mithilfe der Daten wird aus dieser großen Zahl von Ansätzen einer ermit­telt, der den Zusam­men­hang sehr gut darstellt. Durch Ausnut­zung der Daten wird ein Algorithmus festge­legt, durch dessen Anwen­dung eine Entschei­dung getroffen wird.

Teilbe­reiche von Künst­li­cher Intelligenz

Der Begriff „Künst­liche Intel­li­genz“ umfasst sämtliche Techno­lo­gien, welche die Nachah­mung der mensch­li­chen Intel­li­genz zum Ziel haben. Machine Learning als Teilge­biet der Künst­li­chen Intel­li­genz umfasst sämtliche Werkzeuge, Algorithmen und Methoden zur Konzep­tion, Model­lie­rung und Umset­zung von KI-Lösungen. Mithilfe von Künst­li­chen neuro­nalen Netzen wird die Grund­idee der Infor­ma­ti­ons­ver­ar­bei­tung im mensch­li­chen Gehirn nachge­ahmt. Bei Deep Learning handelt es sich schließ­lich um eine spezi­elle Methode der Infor­ma­ti­ons­ver­ar­bei­tung, bei der neuro­nale Netze mit großen Daten­mengen trainiert werden.

Teilbe­reiche von Machine Learning

Algorithmus lernt Funktion aus vorge­ge­benen Ein- und Ausgabewerten

nur für einen Teil der Eingaben sind die dazuge­hö­rigen Ausgaben bekannt

Algorithmus erkennt ohne zusätz­liche Vorgabe von Ausga­be­werten selbst­ständig Muster in Einga­be­daten, etwa um diese in Klassen einzu­teilen („Cluste­ring“)

Algorithmus lernt durch „Beloh­nung“ und „Bestra­fung“, wie in poten­tiell auftre­tenden Situa­tionen zu handeln ist, um Nutzen zu maximieren

Einsatz neuro­naler Netze in der Praxis

Beim Einsatz künst­li­cher neuro­naler Netze z. B. für Regres­si­ons­schät­zungen stellt sich die Frage nach der richtigen Anzahl von Neuronen. Neuronen bestimmen die Freiheits­grade einer Regres­sion und somit die Speicher­ka­pa­zität des neuro­nalen Netzes. Ziel ist es, die Anzahl der Freiheits­grade möglichst gering zu halten, um zu vermeiden, dass das neuro­nale Netz die Daten nur auswenig lernt und nicht versteht. Bei einer zu geringen Neuro­nen­an­zahl hat das Netz zu wenig Kapazität, um allge­meine Muster erkennen zu können. Es ist zu klein, um die Trainings­daten zu lernen, die Genau­ig­keit ist schon auf den Trainings­daten gering (Under­fit­ting).

Deep Learning bei der Bilderkennung

Ein erfolg­reich auf Muster­er­ken­nung trainiertes Deep-Learning-Netz kann große Probleme bei der Klassi­fi­ka­tion haben, wenn z. B. in einem Bild zusätz­lich ein neues, bisher nicht trainiertes Objekt erscheint. Dann wird mögli­cher­weise im Ganzen etwas anderes, etwas völlig Falsches „erkannt“ und das Machine Learning Modell ordnet den Input der falschen Klasse zu. Das liegt daran, dass das Netz keinerlei seman­ti­sche Intel­li­genz besitzt. Weiterhin sind Aussagen, die induktiv gewonnen wurden, stets nur statis­ti­sche Ergeb­nisse. Die Entschei­dungs­re­geln sind in einer Blackbox verborgen. Es bleibt also immer ein gewisses Fehler­ri­siko erhalten.

Bei zu vielen Neuronen hingegen, ist das Netz zu groß, um verall­ge­mei­nern zu müssen, und die Genau­ig­keit auf unbekannten Eingaben ist gering (Overfit­ting). Daher muss zwischen den erreich­baren Genau­ig­keiten auf Basis der bekannten Lerndaten und der Güte im Anwen­dungs­fall für unbekannte Daten stets ein Kompro­miss getroffen werden (Genera­li­sie­rungs­fehler). Zur Beurtei­lung der Qualität neuro­naler Netze wurden deshalb Gütemaße entwickelt.

Mehr lesen  Weniger lesen 

Software­tools und Platt­formen für KI-Projekte

Zur Umset­zung von KI-Lösungen stehen diverse Deep-Learning-Frame­works bzw. Platt­formen zur Verfü­gung. Folgende Übersicht zeigt gängige Tools, die wir erfolg­reich einsetzen.

  • Programm­bi­blio­thek für Deep Learning
  • Python, C++, Matlab
  • Ursprung: Berkeley Vision and Learning Center, Univer­sity of California
  • Open-Source-Software für Deep-Learning, die ein künst­li­ches neuro­nales Netz implementiert
  • Java, Scala, Clojure, Kotlin, Python
  • Ursprung:
    Adam Gibson, Skymind Enginee­ring Team, DL4J Community
  • Open Source Deep-Learning-Biblio­thek, ab Version 1.4.0 auch in der Tensor­Flow-API enthalten
  • Python, R
  • Ursprung:
    François Chollet
  • Open Source Deep-Learning-Software, die zum Trainieren und Bereit­stellen von Deep-Neural-Netzwerken verwendet wird
  • C++, Python, Julia, Matlab, JavaScript, Go, R, Scala, Perl
  • Ursprung:
    Apache Software Foundation
  • Open Source Biblio­thek, die ein künst­li­ches neurales Netz implementiert
  • C++
  • Ursprung: Artel­nics
  • Frame­work zur daten­stro­m­ori­en­tierten Program­mie­rung, das populär im Bereich des maschi­nellen Lernens einge­setzt wird.
  • Python, C/C++, R, Go, Java, JavaScript, Swift
  • Ursprung: Google Brain Team
  • Wissen­schaft­li­ches Frame­work und Open-Source-Biblio­thek für maschi­nelles Lernen
  • Lua, LuaJIT, C, Python (PyTorch)
  • Ursprung:
    Ronan Collobert, Clement Farabet, Koray Kavukcuoglu 
Mehr lesen  Weniger lesen 

Bedeu­tung des Internet der Dinge (IoT)

Für die Umset­zung von Indus­trie 4.0 und KI-Projekten spielen die sog. Cyber-physi­sche Systeme (CPS) eine beson­dere Rolle. Basie­rend auf ihrer Techno­logie kann von jedem physi­ka­li­schen System eine digitale Kopie im Cyber­space aufge­baut werden. Diese bilden dann – bezogen auf den indus­tri­ellen Bereich – das Industrielle Internet der Dinge (Indus­trial Internet of Things, IIoT). Ermög­licht werden CPS unter anderen durch folgende techni­sche Entwicklungen:

IPv6

Diese Internet-Adressen haben eine Länge von 128 Bit. Sie bilden mit 1038 mögli­chen Adressen einen Adress­raum, mit dem theore­tisch jedem Sandkorn auf der Erde eine eigene IP-Adresse zugeordnet werden könnte. Im Gegen­satz zum IPv4-Internet können in einem IPv-Internet fast beliebig viele Geräte bzw. Endpunkte aufge­nommen werden und so in einem Netzwerk gleich­zeitig angespro­chen werden.

RFID

Ein RFID-Chip besteht aus einem Mikro­chip und einer Antenne. Der Chip erhält seine Energie aus dem elektri­schen Feld des RFID-Scanners. Mithilfe elektro­ma­gne­ti­scher Wellen werden dem Scanner drahtlos Daten des RFID-Chips übermit­telt, wie die ID, techni­sche Merkmale, Produk­ti­ons­daten oder Zustands­daten. In der Produktion sind diese Systeme sehr gut und kosten­günstig einsetzbar.

Durch die gleich­zei­tige Vernet­zung von Sensoren, Aktoren, produ­zierten Teilen oder Produkten, ist es auch möglich, Infor­ma­tionen ständig zwischen diesen Objekten auszu­tau­schen. IPv6-Internet ermög­licht also das IoT im eigent­li­chen Sinn,  die perma­nente Kommu­ni­ka­tion zwischen sehr vielen Objekten in einem unter Umständen sehr großen Netzwerk.

Mehr lesen  Weniger lesen 

Mithilfe dieser Techno­lo­gien lässt sich die gesamte Produktion mit allen Maschinen, Sensoren, Aktoren, Werkzeugen, Materia­lien, Ferti­gungs­teilen und Prozessen in die digitale Welt trans­for­mieren, dokumen­tieren, überwa­chen und steuern. Dadurch entstehen riesige, wertvolle Daten­mengen, die wiederum nur mit Verfahren des Machine Learnings beherrscht werden können. Hier schließt sich der Kreis neuer Techno­lo­gien aus der realen Welt mit innova­tiven Methoden des Software-Enginee­rings zum Nutzen der Industrie.

Mehr lesen  Weniger lesen 

CRISP-DM

Cross Industry Standard Process for Data Mining ist ein branchen­über­grei­fender Standard­pro­zess mit einem itera­tiven, agilen Vorgehen. Er beschreibt allge­meine Ansätze, an denen sich der Ablauf von Data-Science-Projekten orien­tieren kann. Dabei werden in jeder Phase Punkte hervor­ge­hoben, die beachtet werden müssen, um den gesamten Prozess nachvoll­ziehbar zu gestalten und die Ziele im Blick zu behalten. Auch für uns bietet CRISP-DM ein hilfrei­cher Rahmen, nach dem wir unser Vorgehen bei Machine Learning- Projekten ausrichten.
 
 
Standard-Vorge­hens­mo­dell CRISP-DM

1. Geschäftsverständnis (business understanding)

„Bekomme ein Aufgaben- und Prozess­ver­ständnis“
Die Projekt­ziele und ‑anfor­de­rungen sind aus der Geschäfts­per­spek­tive zu verstehen, um daraus das Data-Mining-Problem zu definieren und einen vorläu­figen Plan zum Errei­chen der Ziele zu erarbeiten.

Externe Unter­stüt­zung kann bei der Abschät­zung der Chancen und Risiken durch Digita­li­sie­rung und Machine Learning sinnvoll sein.

2. Datenverständnis (data understanding)

„Sichte die Daten und verstehe sie“
Erste Daten­er­he­bung, um sich mit den Daten vertraut zu machen, Daten­qua­li­täts­pro­bleme zu identi­fi­zieren, inter­es­sante Teilmengen zu erkennen oder Hypothesen zu versteckten Infor­ma­tionen aufzustellen.

Eigener Wissens­aufbau ist erfor­der­lich, externe Unter­stüt­zung durch Anwen­dungs­ex­perten, Data Scien­tists und Steue­rungs­ex­perten kann geboten sein.

3. Datenaufbereitung (data preparation)

„Bereite die Daten vor, säubere und trans­for­miere sie“
Die Erstel­lung des endgül­tigen Daten­satzes: Tabellen, Daten­sätze und Attri­bute auswählen, Daten für Model­lie­rungs-werkzeuge trans­for­mieren und bereinigen.

Zukauf­bare Software­pro­dukte können als Werkzeuge zur Beschleu­ni­gung des Prozesses einge­setzt werden; aller­dings ist dies abhängig von der vorlie­genden Qualität der Daten.

4. Modellierung (modeling)

„Erzeuge Modelle und generiere Wissen“
Auswahl und Anwen­dung von Model­lie­rungs­tech­niken und Erstel­lung eines oder mehrerer Modelle, die aus Sicht der Daten­ana­lyse eine hohe Qualität versprechen.

Eventuell ist die Rückkehr in die Phase der Daten­auf­be­rei­tung erfor­der­lich, um die Form der Daten zu ändern.

5. Auswertung (evaluation)

„Inter­pre­tiere die Ergeb­nisse“
Gründ­liche Evalua­tion der erstellten Modelle im Hinblick auf Erfül­lung der ML- Ziele und Prüfung, ob ein wichtiges Geschäfts­pro­blem nicht ausrei­chend berück­sich­tigt wurde.

Zukauf­bare Software­pro­dukte mit fertigen Algorithmen und Entwick­ler­werk­zeugen sind verfügbar; meist sind Anpas­sungen bis hin zu Neuent­wick­lungen erforderlich.

6. Bereitstellung (deployment)

„Setze alles im Prozess um“
Imple­men­tie­rung und Organi­sa­tion des gewon­nenen Wissens zum Nutzen des Kunden. Aufbau einer entspre­chend leistungs­fä­higen IT-Infra­struktur vom Sammeln, Speichern und Auswerten der Daten, bis zum Einspeisen der Ergeb­nisse in den Prozess.

Zur IT-Integra­tion kann die Unter­stüt­zung durch externe Experten erfor­der­lich sein.

 

Mehr lesen  Weniger lesen 

Unser Angebot

Als erfah­rener Dienst­leister übernehmen wir Planung, Durch­füh­rung und Imple­men­tie­rung von Lösungen der Künst­li­chen Intel­li­genz im indus­tri­ellen Bereich.

  • Starten Sie in Ihrem Unter­nehmen ein erstes Machine Learning Projekt , zunächst mit nicht zu hoher Komple­xität, z. B. mit Predic­tive Maintenance 
  • Gehen Sie das Thema unbedingt an – Sie werden es nicht vermeiden können, sofern Sie Ihr Unter­nehmen erfolg­reich in die Zukunft führen möchten! Ihre erfolg­reichsten Wettbe­werber werden sich mit KI-Lösungen beschäftigen.
  • Planen Sie ausrei­chend Zeit für die Umset­zung ein, im Zweigel eher etwas mehr, damit Sie keine falschen Erwar­tungen säen und Enttäu­schungen ernten.
  • Bleiben Sie bei der Beurtei­lung von Ergeb­nissen stets kritisch und prüfen Sie diese auf Grund­lage Ihrer Erfah­rungen auf Plausi­bi­lität. Dann werden Sie einen wirkli­chen Nutzen aus Ihrer KI-Lösung ziehen können.
  • Binden Sie einen quali­fi­zierten, erfah­renen Partner in Ihr erstes KI-Projekt ein.
  • Externe Exper­tise kann auch sinnvoll sein, wenn Sie bereits KI- oder ML-Lösungen einsetzen und mit diesen auf ein höheres Niveau gelangen möchten.

Glossar

Künst­liche Intel­li­genz ist ein Teilge­biet der Infor­matik, welches sich mit der Automa­ti­sie­rung intel­li­genten Verhal­tens und dem maschi­nellen Lernen (Machine Learning) befasst. „… maschi­nelle Simula­tion jedes Aspekts von Lernen und anderer Fähig­keiten der mensch­li­chen Intel­li­genz, wie Sprach­ver­ständnis, Abstrak­tion und Entwick­lung von Ideen.“ [McCarthy, 1955]. KI-Systeme sind digitale Geräte und Maschinen, auf denen sehr clevere Software­ver­fahren und Algorithmen höherer Mathe­matik in Echtzeit laufen.

Compu­ter­sys­teme, die auf Augen­höhe mit Menschen arbeiten und diese bei schwie­rigen Aufgaben unter­stützen können. Starke KI hat das Ziel, mensch­liche Problem­lö­sungs­krea­ti­vität, Selbst­be­wusst­sein und Emotionen abzubilden. Stand der Technik und in naher Zukunft kann die Form der starken Künst­li­chen Intel­li­genz technisch noch nicht abgebildet werden. Dieser Zeitpunkt wird als Singu­la­rität bezeichnet.

Mensch­li­ches Denken und techni­sche Anwen­dungen werden bei konkreten Anwen­dungs­pro­blemen unter­stützt. Schwache KI fokus­siert auf die Lösung konkreter Anwen­dungs­fälle durch Simula­tion von Intel­li­genz durch Methoden der Infor­matik, der Statistik und der Mathe­matik. Im indus­tri­ellen Bereich finden wir nur Anwen­dungen, die der schwa­chen Künst­li­chen Intel­li­genz zugeordnet werden können (lernende Intel­li­genz der Stufe I2).

Kognitiv intel­li­gent beschreibt KI-Systeme, bei denen die Methoden der induk­tiven und der deduk­tiven Wissens­ver­ar­bei­tung optimal mitein­ander verschmolzen sind. 
  • Induk­tives Schließen basiert auf Beobach­tungen und der intui­tiven Annahme, dass auf Basis dieser Beobach­tungen (stets mit begrenzter Anzahl) auf eine Grund­ge­samt­heit geschlossen werden kann (Lernen auf Daten, z. B. beim Maschi­nellen Lernen). Diese Ergeb­nisse sind aller­dings stets statis­tisch bzw. wahrschein­lich­keits­be­haftet. Wird z. B. mit der empiri­schen Modell­bil­dung bei der Blackbox-Methode angewendet.
  • Deduk­tives Schließen erfolgt auf Basis von als wahr definierten Prämissen durch logisches Schluss­fol­gern, insbe­son­dere in der Mathe­matik. Wird z. B. mit der analy­ti­schen Modell­bil­dung bei der Whitebox-Methode angewendet.

Maschi­nelles Lernen ist ein Oberbe­griff für die „künst­liche“ Generie­rung von Wissen aus Daten (Erfah­rungen): Ein künst­li­ches System lernt mit Trainings­daten und kann diese nach Beendi­gung der Lernphase durch Muster­er­ken­nung verall­ge­mei­nern. Dazu bauen Algorithmen ein statis­ti­sches Modell auf.

  • Symbo­li­sche Ansätze:
    Das Wissen, sowohl die Beispiele als auch die induzierten Regeln sind explizit bekannt (reprä­sen­tiert). Unter­schieden wird zwischen aussa­gen­lo­gi­schen (z. B. ID3, C4.5) und prädi­ka­ten­lo­gi­schen (Anwen­dung in der induk­tiven logischen Program­mie­rung) Systemen.
  • Nicht-symbo­li­sche (sub-symbo­li­sche) Ansätze:
    Ein berechen­bares Verhalten wird zwar „antrai­niert“, jedoch besteht kein Einblick in die erlernten Lösungs­wege. Das Wissen ist implizit reprä­sen­tiert, z. B. bei künst­li­chen neuro­nalen Netzen.

Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt ein „Lehrer“ während des Lernens den korrekten Funkti­ons­wert zu einer Eingabe bereit.

  • Vertreter: Delta-Lernregel (einfa­ches Verfahren); Backpro­pa­ga­tion-Lernregel, LSTM-Netze (Long Short-Term Memory) und CNN (Convo­lu­tional Neural Networks, Neuro­nale Faltungs­netz­werke), diese stellen die Idee des Deep-Learning-Systems dar.
  • Teilüber­wachtes Lernen (semi-super­vised learning): Nur für einen Teil der Eingaben sind die dazuge­hö­rigen Ausgaben bekannt.
Der Algorithmus lernt durch Beloh­nung und Bestra­fung eine Taktik, wie in poten­ziell auftre­tenden Situa­tionen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkom­po­nente gehört) zu maximieren. Dies ist die häufigste Lernform beim Menschen und basiert auf den Beloh­nungs­prin­zi­pien.

  • Vertreter: Q‑Learning.
  • Aktives Lernen (active learning): Der Algorithmus kann für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Infor­ma­ti­ons­ge­winn verspre­chen, um die Anzahl der Fragen möglichst klein zu halten.
Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein statis­ti­sches Modell, das die Eingaben beschreibt und erkannte Katego­rien und Zusam­men­hänge enthält. Man trainiert also nicht auf ein Ziel hin, sondern erhält Infor­ma­tionen über die Eingangs­daten. Das Verfahren dient beim maschi­nellen Lernen dem Data Mining.

  • Vertreter: Hebb´sche Lernregel (ältestes Lernver­fahren), Compe­ti­tive Networks und SOM-Lernregel (Selbst-Organi­sie­rende Merkmals­karten); die beiden letzt­ge­nannten Verfahren zeigen, wie Lernen in der KI funktio­nieren kann.
  • Cluste­ring-Verfahren: Die Daten werden in mehrere Katego­rien einge­teilt, die sich durch charak­te­ris­ti­sche Muster vonein­ander unter­scheiden. Das Verfahren erstellt somit selbständig Klassi­fi­ka­toren (Zugehö­rig­keits­bil­dung), nach denen es die Einga­be­muster einteilt.
  • Haupt­kom­po­nen­ten­ana­lyse (Dimen­si­ons­re­duk­tion, PCA): Das Verfahren verzichtet auf die Katego­ri­sie­rung. Es zielt durch Kompri­mie­rung darauf ab, die beobach­teten Daten in eine einfa­chere Reprä­sen­ta­tion zu übersetzen, die sie trotz drastisch reduzierter Infor­ma­tion möglichst genau wiedergibt.
  • Batch-Lernen: alle Eingabe/ Ausgabe-Paare werden gleich­zeitig trainiert
  • Konti­nu­ier­li­ches (sequen­zi­elles) Lernen: die Eingaben werden zeitlich versetzt bzw. nachein­ander verarbeitet
  • Offline-Lernen: das Training wird auf einem festste­henden Daten­satz durch­ge­führt, der sich nicht verändert
  • Online-Lernen: die Eingaben erfolgen auch sequen­ziell, werden aber sofort verarbeitet

Künst­liche neuro­nale Netze (KNN) bestehen aus künst­li­chen Neuronen, die entweder eine lineare oder eine nicht-lineare mathe­ma­ti­sche Funktion darstellen. Sie sind Forschungs­ge­gen­stand der Neuro­in­for­matik und stellen einen Zweig der künst­li­chen Intel­li­genz dar. Künst­liche Neuronen haben biolo­gi­sche Neuronen als Vorbild.

Grafik zeigt künstliche neuronale Netze

Dies sind die einfachsten Struk­turen von KNN. Sie besitzen keine versteckten Schichten. Die feedfor­ward-Eigen­schaft besagt, dass Neuro­nen­aus­gaben nur in Verar­bei­tungs­rich­tung geleitet werden und nicht durch eine rekur­rente (rückge­kop­pelte) Kante zurück­ge­führt werden können (azykli­scher, gerich­teter Graph).

Grafik zeigt einschichtiges feedworward-Netz

Mehrschich­tige feedfor­ward-Netze besitzen neben der Ausga­be­schicht auch verdeckte Schichten, deren Ausgaben außer­halb des Netzes nicht sichtbar sind. Verdeckte Schichten verbes­sern die Abstrak­tion (z. B. Multi-Layer-Percep­tions, MLP). Das mehrschich­tige Perzep­tron (englisch percep­tion = Wahrneh­mung) kann das XOR-Problem (Testpro­blem für NN) im Gegen­satz zu einschich­tigen Netzen lösen.

Grafik zeigt mehrschichtiges feedworward-Netz

Rekur­rente Netze besitzen im Gegen­satz zu feedfor­ward-Netzen auch rekur­rente (rückge­rich­tete) Kanten und enthalten somit eine Rückkopp­lung. Solche Kanten werden dann häufig mit einer Zeitver­zö­ge­rung versehen, sodass bei einer schritt­weisen Verar­bei­tung die Neuro­nen­aus­gaben der vergan­genen Zeitein­heit wieder als Eingaben angelegt werden können. Diese Rückkopp­lungen ermög­li­chen ein Verhalten, das dynamisch in der zeitli­chen Abfolge der Daten­punkte ist und statten das rekur­rente Netz mit einem Gedächtnis aus.

Grafik zeigt rekurrierendes Netz

Deep Learning ist der Oberbe­griff für alle künst­li­chen, neuro­nalen Netze, die verdeckte Schichten benutzen (z.B. mehrschich­tige feedfor­ward-Netze, Convo­lu­tional Neural Network (CNNs), rekur­rente, neuro­nale Netze) usw.). Durch die freie Verfüg­bar­keit von Deep-Learning-Frame­works und bereits vortrai­nierter Netze ist Deep Learning für den Einsatz in der Indus­trie präde­sti­niert. Dabei wird der Einsatz nicht nur auf die Verar­bei­tung von perzep­tu­ellen Daten wie Videos, Bilder oder Sprache beschränkt bleiben.

Grafik zeigt Deep Learning mit mehrschichtigen Netzen

Darunter versteht man die syste­ma­ti­sche Anwen­dung compu­ter­ge­stützter, statis­ti­scher Methoden auf große Daten­be­stände mit dem Ziel, unbekannte, nicht-triviale Struk­turen, Zusam­men­hänge und Trends zu erkennen.

  • Big Data: steht für das Verar­beiten großer, hetero­gener Daten­mengen aus verschie­denen Quellen, deren Geschwin­dig­keit und Datentypen.
  • Small Data: wird in den nächsten Jahren immer wichtiger, da nicht für alle Anwen­dungs­fälle Big Data-Quellen zur Verfü­gung stehen, aber auch diese Daten als Grund­lage für KI dienen sollen.