Künstliche Intelligenz (KI) & Machine Learning (ML)
Zur Lösung von Aufgaben in industriellen Anwendungsgebieten
Die Themen Künstliche Intelligenz (KI) und Machine Learning (ML) haben den gesamten industriellen Bereich und speziell den Maschinen- und Anlagenbau mit konkreten, praktischen Anwendungsmöglichkeiten erfasst. Diese Themen stellen kein rein akademisches Forschungsgebiet mehr dar, sondern sind durch ihre Handhabbarkeit in der Realwirtschaft angekommen. Ihre wirtschaftlichen Vorteile sind für zukunftsorientierte Unternehmen eine große Chance, bzw. eine Notwendigkeit geworden. Ermöglicht wurde dies durch die Steigerung von Rechenleistungen, kostengünstige Cloud-Speicherlösungen, zur Verfügung stehenden großen Datenmengen und insbesondere die Verbesserung und Verfügbarkeit entsprechender Algorithmen und Bibliotheken. Mittels maschinellen Lernens lassen sich bisher nicht geschlossen lösbare Fragestellungen beantworten, bestehende Prozesse sowie Prozess- und Produktqualität noch weiter optimieren, Prognosen für die Zukunft ableiten und darauf aufbauend neue Geschäftsmodelle entwickeln.
Mit den Methoden der agilen Softwareentwicklung, Expertise bei der Implementierung neuer Tools und Erfahrung in der praktischen Umsetzung im Maschinen- und Anlagenbau und auf dem Shopfloor können wir Sie auf dem Weg zur Anwendung von Machine Learning und individuellen Lösungen der Künstlichen Intelligenz effektiv unterstützen.

„Der Traum von der selbstlernenden und intelligenten Maschine wird langsam Wirklichkeit und kommt im normalen industriellen Bereich, in den Anwendungsgebieten des Maschinen- und Anlagenbaus an. Durch den Einsatz Künstlicher Intelligenz und des Machine Learnings bieten sich Möglichkeiten und Vorteile mit einem völlig neuen, ungeahnten Potential zur Lösung von Problemen, zur Optimierung von Prozessen, zur Steigerung der Qualität und für Vorhersagen des Verhaltens von Maschinen in der Zukunft.
Die bisherigen, erfolgreichen Technologien und Methoden aus der Hochsprachenentwicklung sind weiterhin richtig und wichtig und werden immer ein Bestandteil der nachhaltigen Softwareentwicklung bleiben. Das agile Vorgehen in der Softwareentwicklung wird durch KI und ML nicht obsolet. Doch das zusätzlich Neue und Interessante für alle Branchen und Bereiche im Maschinen- und Anlagenbau ist, aus strukturierten und besonders aus unstrukturierten Daten Muster zu erkennen, Algorithmen zu entwickeln und daraus Erkenntnisse für die konkrete Situation und die Zukunft ableiten zu können.
Jedes moderne, zukunftsorientierte Unternehmen sollte sich spätestens jetzt mit der Künstlichen Intelligenz und Machine Learning beschäftigen: Prüfen Sie, wo Sie schon immer scheinbar „unlösbare“ Probleme haben oder lassen Sie sich von Beispielen anderer Unternehmen inspirieren. Schauen Sie, ob bzw. wo Sie nützliche Datenbestände haben oder ab sofort aufbauen können. Dann starten Sie möglichst bald mit einem kleineren Projekt, um erste Erfahrungen zu sammeln und schnell erste Erfolge zu erzielen. Lassen Sie sich auf dem Weg zum eigenen Know-how in Ihrem Haus von externen Experten begleiten. Erfahrungsgemäß wird der Einstieg nur dadurch zum Erfolg, schützt Sie vor Enttäuschungen bzw. falschen Erwartungen oder gar Schäden durch falsche Ergebnisse.
Da viele andere Unternehmen Ihrer Branche bereits in Lösungen mittels Künstlicher Intelligenz investieren, sollten auch Sie die Themen angehen, um am Ball zu bleiben. Und wenn Sie dies tun, machen Sie es am besten gleich richtig mit einem erfahrenen Partner an der Seite. Wir unterstützen Sie mit unseren Dienstleistungen und begleiten Sie dabei!“
Wolfram Schäfer
Einteilung der Künstlichen Intelligenz

Sämtliche Computertechnologien zur Nachahmung menschlicher Intelligenz
Werkzeuge, Algorithmen und Methoden zur Konzeption, Modellierung und Umsetzung von Künstlicher Intelligenz
Nachbildung der Grundidee der Informationsverarbeitung im menschlichen Gehirn
Neuronale Netze mit vielen Hidden Layers, trainiert durch große Datenmengen
Supervised Learning
Algorithmus lernt Funktion aus vorgegebenen Ein- und Ausgabewerten
Unsupervised Learning
Algorithmus erkennt ohne zusätzliche Vorgabe von Ausgabewerten selbstständig Muster in Eingabedaten, etwa um diese in Klassen einzuteilen („Clustering“)
Semi-supervised Learning
nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt
Reinforcement Learning
Algorithmus lernt durch „Belohnung“ und „Bestrafung“, wie in potentiell auftretenden Situationen zu handeln ist, um Nutzen zu maximieren
Faktoren, die zur wachsenden Bedeutung von Machine Learning in industriellen Anwendungsfällen führen
Rechenleistungen von Computern steigen
Rechner-Kapazitäten steigen u. a. durch den Einsatz von Graphik-Prozessoren, bei hoher Verfügbarkeit (durch z. B. Cloud-/ Edge-Cloud-Anwendungen) zu sinkenden Kosten, da häufig flexible, nutzungsabhängige Abrechnungsmodelle genutzt werden.
Exponentielles Wachstum von Datenmengen
Durch die Digitalisierung steigen die Datenmengen, welche zur Weiterentwicklung von Algorithmen nötig sind. Zudem wird die Speicherung großer Datenmengen immer kostengünstiger. Trainingsdaten sind der wichtigste Treiber und notwendige Voraussetzung für Fortschritte beim Machine Learning!
Verbesserte Algorithmen
Algorithmen zur Verarbeitung strukturierter und unstrukturierter Daten werden kontinuierlich weiterentwickelt. Sie können komplexere Aufgaben noch schneller mit weniger Rechenleistung lösen. Zudem wird die Anwendung immer einfacher – mittlerweile gibt es sehr viele frei verfügbare Frameworks für die Umsetzung von KI-Lösungen, welche die Einstiegshürden stark reduzieren.
Kommunikation von Objekten
Das IIoT ermöglicht Objekten die Kommunikation physikalischer Zustände (z. B. Temperatur, Druck, Bewegung etc.) und die Interaktion mit anderen Objekten oder ihrer Umgebung. Herausforderungen in diesem Zusammenhang sind die Konnektivität und Antwortzeiten annähernd in Echtzeit.
Anwendungsmöglichkeiten
z. B. Beurteilung der Qualität von Oberflächen mit Texturen in der industriellen Bildverarbeitung.
Vorgehen: Algorithmen werden mit von Menschen beurteilten Bildern von typischen Gut-Teilen angelernt. Das System lernt, wie ein Gut-Teil mit zulässigen Streuungen auszusehen hat. Daraus ergibt sich ein Erwartungsbild. Abweichungen von diesem Erwartungsbild werden erkannt und als Auffälligkeiten eingestuft.
z. B. Optimierung komplexer physikalischer Maschinenprozesse in der Produktion mit zahlreichen Parametern und Einflussgrößen, deren Einfluss auf den Prozess nicht bekannt ist.
Voraussetzung: ausreichende Menge an Datensätzen mit Einflussgrößen, bei denen das Ergebnis zufriedenstellend war.
z. B. Industrial-Analytics-Projekt zum Verbessern der Gesamtanlageneffektivität (Verfügbarkeit, Leistung, Qualität) zur Ermittlung des Optimierungspotenzials der Anlage/ Maschine bzw. der Produktion.
Empfehlung: Speicherung großer Datenmengen am Ort der Entstehung, z. B. in einer Edge-Cloud auf einem Standard-IPC (Industrie Personal Computer).
z. B. automatisiertes Angebot für komplexe Maschinen/ Anlagen mit vielen Optionen und Konfigurationsmöglichkeiten nach individuellem Kundenwunsch.
Voraussetzung: ausreichender Satz historischer Daten von Maschinenkonfigurationen und Kosten in strukturierter Form mit laufender Aktualisierung hinsichtlich neu verfügbarer Optionen, Kostenanpassungen etc.
z. B. autonom fahrende Fahrzeuge im Automobilbereich, Erkennung von Kreditkartenbetrug und Aktienmarktanalysen in der Finanzwirtschaft, Vorhersage von Leistungsspitzen in der Energiewirtschaft, Klassifikation von Nukleotidsequenzen (DNA) in der medizinischen Forschung, Sprach- und Texterkennung im IT-/Kommunikationssektor u. v. a. m.
„Paradebeispiel“: Vorausschauende Wartung (Predictive Maintenance)
Predictive Maintenance stellt den wohl greifbarsten und naheliegendsten Anwendungsfall von Industrie 4.0 dar. Durch die kontinuierliche Erhebung von Daten aus der Produktion sowie deren Analyse mittels Verfahren des maschinellen Lernens oder der Statistik lässt sich der gegenwärtige Zustand von Produktionsmaschinen bestimmen und dessen zukünftige Entwicklung vorausberechnen. Ein Nachlassen in der Produktionsleistung oder Produktqualität oder gar der Ausfall von Maschinen kann somit frühzeitig erkannt werden. Im Idealfall gelingt es, Instandhaltungsmaßnahmen anzubieten bzw. zu beauftragen, noch bevor es zu Problemen kommt.
Für den Anlagenbetreiber liegt der Nutzen sowohl in der gesteigerten Produktionsleistung – Verfügbarkeit und Qualität – als auch in der Reduktion von Kosten für Instandhaltungsarbeiten und Lagerhaltung. Das Potenzial der vorausschauenden Instandhaltung fußt dabei auf folgenden Eckpfeilern der Digitalisierung: Vernetzung und Kommunikation der Maschinen, moderne Sensortechnik und digitale Daten sowie automatisierte und intelligente Datenanalyse (z. B. durch unüberwachtes Lernen).

Vorteile durch vorausschauende Wartung
Neues Denken durch datengetriebene Entwicklung von Lösungen
Bisheriges Vorgehen

Neues Vorgehen


Daten haben die zentrale Bedeutung im Machine Learning
- Der Zugang zu qualitativ hochwertigen Daten ist die Grundlage und notwendige Voraussetzung für Machine Learning:
z. B. Daten aus Steuerungen, von Sensoren, Aktoren, aus Datenbanken, Produktionsflussdaten, Wetterdaten etc. - Algorithmen können Muster in ausreichend vorhandenen Daten erkennen. Es ist nicht immer vorhersehbar, welche und wie viele Daten für die erforderliche Modellqualität und Genauigkeit erforderlich sind. Mehr Daten führen nicht notwendigerweise zu mehr Mustern.
Wenn Machine Learning-Algorithmen den Motor für künftige Entwicklungen und Lösungen darstellen, dann sind Daten der Treibstoff. Daten sind das A und O des maschinellen Lernens.
Bedeutung des Internet der Dinge (IoT)
Für die Umsetzung von Industrie 4.0 und KI-Projekten spielen die sog. Cyber-physische Systeme (CPS) eine besondere Rolle. Basierend auf ihrer Technologie kann von jedem physikalischen System eine digitale Kopie im Cyberspace aufgebaut werden und diese bilden dann – bezogen auf den industriellen Bereich – das Industrielle Internet der Dinge (Industrial Internet of Things, IIoT). Ermöglicht werden CPS unter anderen durch folgende technische Entwicklungen:
IPv6
Diese vor wenigen Jahren eingeführten Internet-Adressen haben eine Länge von 128 Bit. Sie bilden mit 1038 möglichen Adressen einen Adressraum, mit dem theoretisch jedem Sandkorn auf der Erde eine eigene IP-Adresse zugeordnet werden könnte. Im Gegensatz zum IPv4-Internet können in einem IPv-Internet fast beliebig viele Geräte bzw. Endpunkte aufgenommen werden und so in einem Netzwerk gleichzeitig angesprochen werden. Durch die gleichzeitige Vernetzung von Sensoren, Aktoren, produzierten Teilen oder Produkten, ist es auch möglich, Informationen ständig zwischen diesen Objekten auszutauschen. IPv6-Internet ermöglicht also das IoT im eigentlichen Sinn, die permanente Kommunikation zwischen sehr vielen Objekten in einem unter Umständen sehr großen Netzwerk.
RFID (radio-frequency identification)
Ein RFID-Chip besteht aus einem Mikrochip und einer Antenne. Der Chip funktioniert passiv und erhält seine Energie aus dem elektrischen Feld des RFID-Scanners. Dadurch werden mithilfe elektromagnetischer Wellen dem Scanner drahtlos Daten des RFID-Chips übermittelt, wie z. B. die ID, technische Merkmale, Produktionsdaten, Zustandsdaten etc. In der Produktion sind diese Systeme sehr gut und kostengünstig einsetzbar.
Mithilfe dieser Technologien lassen sich z. B. die gesamte Produktion mit allen Maschinen, Sensoren, Aktoren, Werkzeugen, Materialien, Fertigungsteilen etc. und Prozessen in die digitale Welt transformieren und dokumentieren, überwachen, steuern etc. Dadurch entstehen riesige – für Machine Learning wertvolle – Datenmengen, die wiederum nur mit Verfahren des Machine Learnings (z. B. unüberwachtes Lernen) beherrscht werden können. Hier schließt sich also der Kreis neuer Technologien aus der realen Welt mit innovativen Methoden aus dem Software-Engineering zum Vorteil und Nutzen in der industriellen Anwendung.
Vorgehen bei der Einführung von KI-/ML-Projekten
CRISP-DM (Cross Industry Standard Process for Data Mining)
Dies ist ein branchenübergreifender Standardprozess mit einem iterativen, agilen Vorgehen, der allgemeine Ansätze beschreibt, die bei Data-Science-Projekten verwendet werden.

Geschäftsverständnis (business understanding)
Die Projektziele und ‑anforderungen sind aus der Geschäftsperspektive zu verstehen, um daraus das Data-Mining-Problem zu definieren und einen vorläufigen Plan zum Erreichen der Ziele zu erarbeiten. → Externe Unterstützung kann bei der Abschätzung der Chancen und Risiken durch Digitalisierung und Machine Learning sinnvoll sein.
Datenverständnis (data understanding)
erste Datenerhebung, um sich mit den Daten vertraut zu machen, Datenqualitätsprobleme zu identifizieren, interessante Teilmengen zu erkennen oder Hypothesen zu versteckten Informationen aufzustellen. → Eigener Wissensaufbau ist erforderlich, die (externe) Unterstützung durch Anwendungsexperten, Data Scientists und Steuerungsexperten kann geboten sein.
Datenaufbereitung (data preparation)
Die Erstellung des endgültigen Datensatzes: Tabellen, Datensätze und Attribute auswählen und Daten für Modellierungswerkzeuge transformieren und bereinigen. Der Aufwand dieses Schrittes beträgt ca. 50–70 % des gesamten Analyseprojekts. → Zukaufbare Softwareprodukte können als Werkzeuge zur Beschleunigung des Prozesses eingesetzt werden; allerdings ist dies abhängig von der vorliegenden Qualität der Daten.
Modellierung (modeling)
Auswahl und Anwendung von Modellierungstechniken und Erstellung eines oder mehrerer Modelle, die aus Sicht der Datenanalyse eine hohe Qualität versprechen Eventuell ist die Rückkehr in die Phase der Datenaufbereitung erforderlich, um die Form der Daten zu ändern.
Auswertung (evaluation)
Gründliche Evaluation der erstellten Modelle im Hinblick auf die Erfüllung der ML- Ziele und Prüfung, ob ein wichtiges Geschäftsproblem nicht ausreichend berücksichtigt wurde. → Zukaufbare Softwareprodukte mit fertigen Algorithmen und Entwicklerwerkzeugen sind verfügbar; meist sind Anpassungen bis hin zu Neuentwicklungen erforderlich.
Bereitstellung (deployment)
Implementierung und Organisation des gewonnenen Wissens zum Nutzen des Kunden. Aufbau einer entsprechend leistungsfähigen IT-Infrastruktur vom Sammeln, Speichern und Auswerten der Daten, bis zum Einspeisen der Ergebnisse in den Prozess. → Zur IT-Integration kann die Unterstützung durch externe Experten erforderlich sein.
Softwaretools und Plattformen
Framework | Kurzbeschreibung | Sprachen | Ursprung |
---|---|---|---|
Caffe | Programmbibliothek für Deep Learning |
| Berkeley Vision and Learning Center, University of California |
Deeplearning4j | Open-Source-Software für Deep-Learning, die ein künstliches neuronales Netz implementiert |
| Adam Gibson, Skymind Engineering Team, DL4J Community |
Keras | Open Source Deep-Learning-Bibliothek, ab Version 1.4.0 auch in der TensorFlow-API enthalten |
| François Chollet |
MXNet | Open Source Deep-Learning-Software, die zum Trainieren und Bereitstellen von Deep-Neural-Netzwerken verwendet wird |
| Apache Software Foundation |
OpenNN | Open Source Bibliothek, die ein künstliches neurales Netz implementiert |
| Artelnics |
TensorFlow | Framework zur datenstromorientierten Programmierung, das populär im Bereich des maschinellen Lernens eingesetzt wird. |
| Google Brain Team |
Torch | Wissenschaftliches Framework und Open-Source-Bibliothek für maschinelles Lernen |
| Ronan Collobert, Clement Farabet, Koray Kavukcuoglu |
Neues Denken durch datengetriebene Entwicklung von Lösungen
Einsatz neuronaler Netze in der Praxis
Beim Einsatz künstlicher neuronaler Netze z. B. für Regressionsschätzungen stellt sich die Frage nach der richtigen Anzahl von Neuronen. Neuronen bestimmen die Freiheitsgrade einer Regression und somit die Speicherkapazität des neuronalen Netzes. Ziel ist es, die Anzahl der Freiheitsgrade möglichst gering zu halten, um zu vermeiden, dass das neuronale Netz die Daten nur auswenig lernt und nicht versteht. Bei einer zu geringen Neuronenanzahl hat das Netz zu wenig Kapazität, um allgemeine Muster erkennen zu können. Es ist zu klein, um die Trainingsdaten zu lernen, die Genauigkeit ist schon auf den Trainingsdaten gering (Underfitting). Bei zu vielen Neuronen hingegen, ist das Netz zu groß, um verallgemeinern zu müssen, und die Genauigkeit auf unbekannten Eingaben ist gering (Overfitting). Daher muss zwischen den erreichbaren Genauigkeiten auf Basis der bekannten Lerndaten und der Güte im Anwendungsfall für unbekannte Daten stets ein Kompromiss getroffen werden (Generalisierungsfehler). Zur Beurteilung der Qualität neuronaler Netze wurden deshalb Gütemaße entwickelt.
Deep Learning bei der Bilderkennung
Ein erfolgreich auf Mustererkennung trainiertes Deep-Learning-Netz kann große Probleme bei der Klassifikation haben, wenn z. B. in einem Bild zusätzlich ein neues, bisher nicht trainiertes Objekt erscheint. Dann wird möglicherweise im Ganzen etwas anderes, etwas völlig Falsches „erkannt“ und das Machine Learning Modell ordnet den Input der falschen Klasse zu. Das liegt daran, dass das Netz keinerlei semantische Intelligenz besitzt. Weiterhin sind Aussagen, die induktiv gewonnen wurden, stets nur statistische Ergebnisse. Die Entscheidungsregeln sind in einer Blackbox verborgen. Es bleibt also immer ein gewisses Fehlerrisiko erhalten.
Aus diesen Gründen ist es wichtig, mit Expertenwissen und Erfahrung in ein Machine Learning Projekt zu starten, um die Chancen und Risiken korrekt zu beurteilen.
Literaturempfehlungen
VDMA Leitfaden „Datennutzung – Eine Orientierungshilfe zur Vertragsgestaltung für den Mittelstand
- DIN IEC 62443–3‑3: Systemanforderungen zur IT-Sicherheit und Security-Level“
- VDMA Leitfaden „Interoperabilität durch standardisierte Merkmale für Industrie 4.0“
- VDMA Leitfaden „Industrie 4.0 – Orientierungshilfe zur Einführung in den Mittelstand“
- VDMA-Whitepaper „Plattformökonomie im Maschinenbau – Praktische Tipps und Erfahrungen von Anwendern“
- VDMA Leitfaden „Industrie 4.0 Kommunikation mit OPC UA“
- VDMA-Stellungnahme „Künstliche Intelligenz im Maschinenbau – Perspektiven und Handlungsempfehlungen“
- BDI-Grundsatzpapier „Künstliche Intelligenz – Handlungsempfehlungen zur Umsetzung der deutschen und europäischen KI-Strategie“
- VDMA Quick Guide Machine Learning
Unsere Empfehlungen
- Starten Sie in Ihrem Unternehmen ein erstes Projekt mit KI/ ML, vielleicht nur im Kleinen, mit keiner zu hohen Komplexität, z. B. Predictive Maintenance durch Machine Learning mit Methoden des unüberwachten Lernens. Gehen Sie das Thema aber unbedingt an – Sie werden es nicht vermeiden können, sofern Sie Ihr Unternehmen erfolgreich in die Zukunft führen möchten! Gehen Sie davon aus, dass sich Ihre erfolgreichsten Wettbewerber mit Lösungen der Künstlichen Intelligenz beschäftigen.
- Planen Sie ausreichend Zeit für die Umsetzung ein, im Zweifelsfall lieber etwas mehr, damit Sie keine falschen Erwartungen säen und Enttäuschungen ernten. Bleiben Sie auch bei der Beurteilung von Ergebnissen stets kritisch und prüfen Sie diese auf Grundlage Ihrer Erfahrungen auf Plausibilität. Dann werden Sie einen wirklichen Nutzen aus KI/ ML ziehen können.
- Binden Sie unbedingt einen qualifizierten Partner mit Erfahrung in Ihr erstes KI-/ ML-Projekt ein, oder auch wenn Sie KI/ ML bereits einsetzen, aber durch externe Expertise auf ein höheres Niveau gelangen möchten.
iT Engineering Software Innovations ist Ihr kompetenter Dienstleister von der Planung, über die Durchführung bis zur Implementierung von Lösungen der Künstlichen Intelligenz im industriellen Bereich.
Case Study
In dieser Case Study zeigen wir anschaulich, wie es uns mit modernen Methoden des maschinellen Lernens gelungen ist, die Positioniergenauigkeit eines Industrieroboters – bei gleichbleibender Taktzeit – um fast 50 Prozent zu verbessern.
Glossar
Künstliche Intelligenz ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen (Machine Learning) befasst. „… maschinelle Simulation jedes Aspekts von Lernen und anderer Fähigkeiten der menschlichen Intelligenz, wie Sprachverständnis, Abstraktion und Entwicklung von Ideen.“ [McCarthy, 1955]. KI-Systeme sind digitale Geräte und Maschinen, auf denen sehr clevere Softwareverfahren und Algorithmen mit höherer Mathematik in Echtzeit laufen.
Computersysteme, die auf Augenhöhe mit Menschen arbeiten und diese bei schwierigen Aufgaben unterstützen können. Die starke KI hat das Ziel, menschliche Problemlösungskreativität, Selbstbewusstsein und Emotionen abzubilden. Stand der Technik und in naher Zukunft kann die Form der starken Künstlichen Intelligenz technisch noch nicht abgebildet werden. Dieser Zeitpunkt wird mit Singularität bezeichnet.
Das menschliche Denken und technische Anwendungen werden bei konkreten Anwendungsproblemen unterstützt. Die schwache KI fokussiert auf die Lösung konkreter Anwendungsfälle durch Simulation von Intelligenz durch Methoden der Informatik, der Statistik und der Mathematik. Im industriellen Bereich finden wir nur Anwendungen, die der schwachen Künstlichen Intelligenz zugeordnet werden können (lernende Intelligenz der Stufe I2).
Kognitiv intelligent beschreibt KI-Systeme, bei denen die Methoden der induktiven und der deduktiven Wissensverarbeitung optimal miteinander verschmolzen sind.
- Induktives Schließen
basiert auf Beobachtungen und der intuitiven Annahme, dass auf Basis dieser Beobachtungen (stets mit begrenzter Anzahl) auf eine Grundgesamtheit geschlossen werden kann (Lernen auf Daten, z. B. beim Maschinellen Lernen). Diese Ergebnisse sind allerdings stets statistisch bzw. wahrscheinlichkeitsbehaftet. Wird z. B. mit der empirischen Modellbildung bei der Blackbox-Methode angewendet. - Deduktives Schließen
erfolgt auf Basis von als wahr definierter Prämissen durch logisches Schlussfolgern, insbesondere in der Mathematik. Wird z. B. mit der analytischen Modellbildung bei der Whitebox-Methode angewendet.
Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Daten (Erfahrungen): Ein künstliches System lernt aus Beispielen (Trainingsdaten) und kann diese nach Beendigung der Lernphase durch Mustererkennung verallgemeinern. Dazu bauen Algorithmen beim maschinellen Lernen ein statistisches Modell auf.
- Symbolische Ansätze:
Das Wissen, sowohl die Beispiele als auch die induzierten Regeln sind explizit bekannt (repräsentiert). Unterschieden wird zwischen aussagenlogischen (z. B. ID3, C4.5) und prädikatenlogischen (Anwendung in der induktiven logischen Programmierung) Systemen. - Nicht-symbolische (sub-symbolische) Ansätze:
Ein berechenbares Verhalten wird zwar „antrainiert“, jedoch besteht kein Einblick in die erlernten Lösungswege. Das Wissen ist implizit repräsentiert, z. B. bei künstlichen neuronalen Netzen.
- Symbolische Ansätze:
Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt ein „Lehrer“ während des Lernens den korrekten Funktionswert zu einer Eingabe bereit.
Vertreter: Delta-Lernregel (einfaches Verfahren); Backpropagation-Lernregel, LSTM-Netze (Long Short-Term Memory) und CNN (Convolutional Neural Networks, Neuronale Faltungsnetzwerke), diese stellen die Idee des Deep-Learning-Systems dar.
- Teilüberwachtes Lernen (semi-supervised learning):
Nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt.
Der Algorithmus lernt durch Belohnung und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren. Dies ist die häufigste Lernform beim Menschen und basiert auf den Belohnungsprinzipien.
Vertreter: Q‑Learning.
- Aktives Lernen (active learning):
Der Algorithmus hat die Möglichkeit für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Informationsgewinn versprechen, um die Anzahl der Fragen möglichst klein zu halten.
Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein statistisches Modell, das die Eingaben beschreibt und erkannte Kategorien und Zusammenhänge enthält. Man trainiert also nicht auf ein Ziel hin, sondern erhält Informationen über die Eingangsdaten. Das Verfahren dient beim maschinellen Lernen dem Data Mining.
Vertreter: Hebb´sche Lernregel (ältestes Lernverfahren), Competitive Networks und SOM-Lernregel (Selbst-Organisierende Merkmalskarten); die beiden letztgenannten Verfahren zeigen, wie Lernen in der KI funktionieren kann.
- Clustering-Verfahren:
Die Daten werden in mehrere Kategorien eingeteilt, die sich durch charakteristische Muster voneinander unterscheiden. Das Verfahren erstellt somit selbständig Klassifikatoren (Zugehörigkeitsbildung), nach denen es die Eingabemuster einteilt. - Hauptkomponentenanalyse (Dimensionsreduktion, PCA):
Das Verfahren verzichtet auf die Kategorisierung. Es zielt durch Komprimierung darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt.
Batch-Lernen:
alle Eingabe/ Ausgabe-Paare werden gleichzeitig trainiert
Kontinuierliches (sequenzielles) Lernen:
die Eingaben werden zeitlich versetzt bzw. nacheinander verarbeitet
Offline-Lernen:
das Training wird auf einem feststehenden Datensatz durchgeführt, der sich nicht verändert
Online-Lernen:
Die Eingaben erfolgen auch sequenziell, werden aber sofort verarbeitet
Künstliche neuronale Netze (Netzwerke) bestehen aus künstlichen Neuronen, die entweder eine lineare oder eine nicht-lineare mathematische Funktion darstellen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar. Künstliche Neuronen haben biologische Neuronen als Vorbild.
Dies sind die einfachsten Strukturen von KNN. Sie besitzen keine versteckten Schichten. Die feedforward-Eigenschaft besagt, dass Neuronenausgaben nur in Verarbeitungsrichtung geleitet werden und nicht durch eine rekurrente (rückgekoppelte) Kante zurückgeführt werden können (azyklischer, gerichteter Graph).
Sie besitzen neben der Ausgabeschicht auch verdeckte Schichten, deren Ausgaben außerhalb des Netzes nicht sichtbar sind. Verdeckte Schichten verbessern die Abstraktion (z. B. Multi-Layer-Perceptions, MLP). Das mehrschichtige Perzeptron (englisch perception = Wahrnehmung) kann das XOR-Problem (Testproblem für NN) im Gegensatz zu einschichtigen Netzen lösen.
Sie besitzen im Gegensatz zu feedforward-Netzen auch rekurrente (rückgerichtete) Kanten und enthalten somit eine Rückkopplung. Solche Kanten werden dann häufig mit einer Zeitverzögerung versehen, sodass bei einer schrittweisen Verarbeitung die Neuronenausgaben der vergangenen Zeiteinheit wieder als Eingaben angelegt werden können. Diese Rückkopplungen ermöglichen ein Verhalten, das dynamisch in der zeitlichen Abfolge der Datenpunkte ist und statten das rekurrente Netz mit einem Gedächtnis aus.
Deep Learning ist der Oberbegriff für alle künstlichen, neuronalen Netze, die verdeckte Schichten benutzen (z.B. mehrschichtige feedforward-Netze, Convolutional Neural Network (CNNs), rekurrente. neuronale Netze) usw.). Durch die freie Verfügbarkeit von Deep-Learning-Frameworks und bereits vortrainierter Netze ist Deep Learning für den Einsatz in der Industrie prädestiniert. Dabei wird der Einsatz nicht nur auf die Verarbeitung von perzeptuellen Daten wie Videos, Bilder oder Sprache beschränkt bleiben.
Darunter versteht man die systematische Anwendung computergestützter, statistischer Methoden auf große Datenbestände mit dem Ziel, unbekannte, nicht-triviale Strukturen, Zusammenhänge und Trends zu erkennen.
- Big Data
steht für das Verarbeiten großer, heterogener Datenmengen aus verschiedenen Quellen, deren Geschwindigkeit und Datentypen. - Small Data
wird in den nächsten Jahren immer wichtiger, da nicht für alle Anwendungsfälle Big Data-Quellen zur Verfügung stehen, aber auch diese Daten als Grundlage für KI dienen sollen.