Künstliche Intelligenz & Machine Learning
Zur Lösung von Aufgaben in der Industrie
Die Themen Künstliche Intelligenz (KI) und Machine Learning (ML) haben den gesamten industriellen Bereich und speziell den Maschinen- und Anlagenbau mit konkreten, praktischen Anwendungsmöglichkeiten erfasst.
Diese Themen stellen kein rein akademisches Forschungsgebiet mehr dar, sondern sind durch ihre Handhabbarkeit in der Realwirtschaft angekommen. Ihre wirtschaftlichen Vorteile sind für zukunftsorientierte Unternehmen eine große Chance, bzw. zur Notwendigkeit geworden.
Mittels maschinellen Lernens lassen sich bisher nicht geschlossen lösbare Fragestellungen beantworten, bestehende Prozesse sowie Prozess- und Produktqualität optimieren, Prognosen für die Zukunft ableiten und darauf aufbauend neue Geschäftsmodelle entwickeln.
Mit Methoden der agilen Softwareentwicklung, Expertise bei der Implementierung neuer Tools und Erfahrung in der praktischen Umsetzung im Maschinen- und Anlagenbau können wir Sie auf dem Weg zur Anwendung von Machine Learning und individuellen Lösungen der Künstlichen Intelligenz effektiv unterstützen.
Der Traum von der selbstlernenden und intelligenten Maschine wird langsam Wirklichkeit und kommt im industriellen Bereich, in den Anwendungsgebieten des Maschinen- und Anlagenbaus an.
Wolfram Schäfer
Geschäftsführer IT Engineering Software Innovations
Künstliche Intelligenz bei iTE SI
Als Softwareunternehmen am Puls der Zeit arbeiten wir täglich an KI-Lösungen für unsere Kunden aus dem Maschinebau und der produzierenden Industrie. Künstliche Inteligenz bewegt, beschäftigt und fasziniert uns – hier geben wir einen kurzen Einblick in unser Verständnis von KI.
Machine Learning
Machine Learning ist ein Teilgebiet der Künstlichen Intelligenz, für das in der Praxis schon viele konkrete Anwendungen existieren. Dabei werden Systeme befähigt, auf Basis bestehender Daten und Algorithmen Muster zu erkennen und Lösungen zu entwickeln. Die gewonnenen Erkenntnisse können verallgemeinert werden und dienen der Lösung weiterer Probleme und Fragestellungen in der Produktion.
Treiber von Machine Learning in der Industrie
Rechenleistungen von Computern steigen
Rechnerkapazitäten steigen u. a. durch den Einsatz von Graphik-Prozessoren, bei hoher Verfügbarkeit (durch z. B. Cloud-/ Edge-Cloud-Anwendungen) zu sinkenden Kosten, da häufig flexible, nutzungsabhängige Abrechnungsmodelle genutzt werden.
Exponentielles Wachstum von Datenmengen
Durch die Digitalisierung steigen die Datenmengen, welche zur Weiterentwicklung von Algorithmen nötig sind. Zudem wird die Speicherung großer Datenmengen immer kostengünstiger. Trainingsdaten sind der wichtigste Treiber und notwendige Voraussetzung für Fortschritte beim Machine Learning.
Verbesserte Algorithmen
Algorithmen zur Verarbeitung strukturierter und unstrukturierter Daten werden kontinuierlich weiterentwickelt. Sie können komplexere Aufgaben noch schneller mit weniger Rechenleistung lösen. Zudem wird die Anwendung immer einfacher – mittlerweile gibt es sehr viele frei verfügbare Frameworks für die Umsetzung von KI-Lösungen, welche die Einstiegshürden stark reduzieren.
Kommunikation von Objekten
Das IIoT ermöglicht Objekten die Kommunikation physikalischer Zustände (z. B. Temperatur, Druck, Bewegung etc.) und die Interaktion mit anderen Objekten oder ihrer Umgebung. Herausforderungen in diesem Zusammenhang sind die Konnektivität und Antwortzeiten annähernd in Echtzeit.
Anwendungsmöglichkeiten von Machine Learning
Einsatzbereich:
z. B. Beurteilung der Qualität von Oberflächen mit Texturen in der industriellen Bildverarbeitung.
Vorgehen:
Algorithmen werden mit von Menschen beurteilten Bildern von typischen Gut-Teilen angelernt. Das System lernt, wie ein Gut-Teil mit zulässigen Streuungen auszusehen hat. Daraus ergibt sich ein Erwartungsbild. Abweichungen von diesem Erwartungsbild werden erkannt und als Auffälligkeiten eingestuft.
Einsatzbereich:
z. B. bei Optimierung komplexer physikalischer Maschinenprozesse in der Produktion mit zahlreichen Parametern und Einflussgrößen, deren Einfluss auf den Prozess nicht bekannt ist.
Voraussetzung:
ausreichende Menge an Datensätzen mit Einflussgrößen, bei denen das Ergebnis zufriedenstellend war.
Einsatzbereich:
z. B. Industrial-Analytics-Projekt zum Verbessern der Gesamtanlageneffektivität (Verfügbarkeit, Leistung & Qualität) zur Ermittlung des Optimierungspotenzials der Anlage bzw. Maschine bzw. der Produktion.
Empfehlung:
Speicherung großer Datenmengen am Entstehungsort, z. B. in einer Edge-Cloud auf einem Standard-IPC.
Einsatzbereich:
z. B. automatisiertes Angebot für komplexe Maschinen bzw. Anlagen mit vielen Optionen und Konfigurationsmöglichkeiten nach individuellem Kundenwunsch.
Voraussetzung:
ausreichender Satz historischer Daten von Maschinenkonfigurationen und Kosten in strukturierter Form mit laufender Aktualisierung hinsichtlich neu verfügbarer Optionen, Kostenanpassungen etc.
- autonom fahrende Fahrzeuge im Automobilbereich
- Erkennung von Kreditkartenbetrug
- Aktienmarktanalysen in der Finanzwirtschaft
- Vorhersage von Leistungsspitzen in der Energiewirtschaft
- Klassifikation von Nukleotidsequenzen (DNA) in der medizinischen Forschung
- Sprach- und Texterkennung im IT-/Kommunikationssektor
Case Studies zu Machine Learning
Predictive Maintenance
Predictive Maintenance (Voraussschauende Wartung) stellt den wohl greifbarsten Anwendungsfall von Industrie 4.0 dar. Durch kontinuierliche Datenerfassung in der Produktion sowie deren Analyse mittels Verfahren des maschinellen Lernens oder der Statistik lässt sich der gegenwärtige Zustand von Produktionsmaschinen bestimmen und dessen zukünftige Entwicklung vorausberechnen. Ein Nachlassen in der Produktionsleistung, der Produktqualität oder gar der Ausfall von Maschinen kann somit frühzeitig erkannt werden. Im Idealfall gelingt es, Instandhaltungsmaßnahmen anzubieten bzw. zu beauftragen, noch bevor es zu Problemen kommt.
Für den Anlagenbetreiber liegt der Nutzen sowohl in der gesteigerten Produktionsleistung – Verfügbarkeit und Qualität – als auch in der Reduktion von Kosten für Instandhaltungsarbeiten und Lagerhaltung. Das Potenzial der vorausschauenden Instandhaltung fußt dabei auf folgenden Eckpfeilern der Digitalisierung: Vernetzung und Kommunikation der Maschinen, moderne Sensortechnik und digitale Daten sowie automatisierte und intelligente Datenanalyse (z. B. durch unüberwachtes Lernen).
Vorteile von Predictive Maintenance
- Senkung der Wartungskosten um bis zu 30%
- Reduzierung der Stillstandszeiten um bis zu 70%
- Erhöhung der Ausfallsicherheit
- Steigerung der Fertigungsqualität
- Optimierung von Prozessen in der Produktion
Es ist wichtig mit Expertenwissen und Erfahrung in ein Machine Learning Projekt zu starten, um Chancen und Risiken korrekt beurteilen zu können. Wir unterstützen Sie gerne dabei.
Wolfram Schäfer
Geschäftsführer IT Engineering Software Innovations
Umsetzung von Predictive Maintenance
Der Einstieg in Predictive Maintenance muss nicht aufwendig oder teuer sein. Mit den IIoT Building Blocks bieten wir eine Lösung, mit der schnell und einfach aus erfassten Daten gelernt werden kann. Die drei Bausteine Collect, Explore und Improve unterstützen Sie beim Start und der konkreten Umsetzung von Predictive Maintenance in Ihrer Produktion.
Bedeutung von Daten
Wenn Machine Learning-Algorithmen den Motor für künftige Entwicklungen und Lösungen darstellen, dann sind Daten der Treibstoff. Daten sind das A und O des maschinellen Lernens.
Daten sind der Schlüssel beim Machine Learning
- der Zugang zu qualitativ hochwertigen Daten ist die Grundlage für Machine Learning
- Beispiele sind Daten aus Steuerungen, Sensoren, Aktoren, Datenbanken, Produktionsflussdaten oder Wetterdaten
- damit Algorithmen Muster erkennen können, müssen Daten in ausreichender Menge vorliegen
- es ist nicht immer vorhersehbar, welche und wie viele Daten für die erforderliche Modellqualität und Genauigkeit notwendig sind
- mehr Daten führen nicht unbedingt zu mehr bzw. besseren Mustern
Datengetriebene Lösungsfindung
Klassische Vorgehensweise
Im klassischen Fall wird der Algorithmus ohne Zuhilfenahme einer Datengrundlage vom Menschen entwickelt und auf einen Satz von Eingabedaten angewendet. Es wird nur ein sehr explizites Modell gewählt, das durch genaue Analyse des Problems gefunden wird. Die daraus resultierende Ausgabe wird für die Entscheidung herangezogen.
Vorgehensweise mit Machine Learning
Der Mensch gibt nur ein sehr allgemeines Modell vor, das durch Festlegung von Parametern kalibriert wird. Das Modell „lernt“ aus den Daten und passt sein zuvor willkürliches Verhalten an das gewünschte Verhalten an. Mithilfe der Daten wird aus dieser großen Zahl von Ansätzen einer ermittelt, der den Zusammenhang sehr gut darstellt. Durch Ausnutzung der Daten wird ein Algorithmus festgelegt, durch dessen Anwendung eine Entscheidung getroffen wird.
Teilbereiche von Künstlicher Intelligenz
Teilbereiche von Machine Learning
Algorithmus lernt Funktion aus vorgegebenen Ein- und Ausgabewerten
nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt
Algorithmus erkennt ohne zusätzliche Vorgabe von Ausgabewerten selbstständig Muster in Eingabedaten, etwa um diese in Klassen einzuteilen („Clustering“)
Algorithmus lernt durch „Belohnung“ und „Bestrafung“, wie in potentiell auftretenden Situationen zu handeln ist, um Nutzen zu maximieren
Einsatz neuronaler Netze in der Praxis
Beim Einsatz künstlicher neuronaler Netze z. B. für Regressionsschätzungen stellt sich die Frage nach der richtigen Anzahl von Neuronen. Neuronen bestimmen die Freiheitsgrade einer Regression und somit die Speicherkapazität des neuronalen Netzes. Ziel ist es, die Anzahl der Freiheitsgrade möglichst gering zu halten, um zu vermeiden, dass das neuronale Netz die Daten nur auswenig lernt und nicht versteht. Bei einer zu geringen Neuronenanzahl hat das Netz zu wenig Kapazität, um allgemeine Muster erkennen zu können. Es ist zu klein, um die Trainingsdaten zu lernen, die Genauigkeit ist schon auf den Trainingsdaten gering (Underfitting).Deep Learning bei der Bilderkennung
Ein erfolgreich auf Mustererkennung trainiertes Deep-Learning-Netz kann große Probleme bei der Klassifikation haben, wenn z. B. in einem Bild zusätzlich ein neues, bisher nicht trainiertes Objekt erscheint. Dann wird möglicherweise im Ganzen etwas anderes, etwas völlig Falsches „erkannt“ und das Machine Learning Modell ordnet den Input der falschen Klasse zu. Das liegt daran, dass das Netz keinerlei semantische Intelligenz besitzt. Weiterhin sind Aussagen, die induktiv gewonnen wurden, stets nur statistische Ergebnisse. Die Entscheidungsregeln sind in einer Blackbox verborgen. Es bleibt also immer ein gewisses Fehlerrisiko erhalten.
Softwaretools und Plattformen für KI-Projekte
Zur Umsetzung von KI-Lösungen stehen diverse Deep-Learning-Frameworks bzw. Plattformen zur Verfügung. Folgende Übersicht zeigt gängige Tools, die wir erfolgreich einsetzen.
-
Programmbibliothek für Deep Learning
- Python, C++, Matlab
- Ursprung: Berkeley Vision and Learning Center, University of California
-
Open-Source-Software für Deep-Learning, die ein künstliches neuronales Netz implementiert
- Java, Scala, Clojure, Kotlin, Python
- Ursprung:
Adam Gibson, Skymind Engineering Team, DL4J Community
-
Open Source Deep-Learning-Bibliothek, ab Version 1.4.0 auch in der TensorFlow-API enthalten
- Python, R
- Ursprung:
François Chollet
-
Open Source Deep-Learning-Software, die zum Trainieren und Bereitstellen von Deep-Neural-Netzwerken verwendet wird
- C++, Python, Julia, Matlab, JavaScript, Go, R, Scala, Perl
- Ursprung:
Apache Software Foundation
-
Open Source Bibliothek, die ein künstliches neurales Netz implementiert
- C++
- Ursprung: Artelnics
-
Framework zur datenstromorientierten Programmierung, das populär im Bereich des maschinellen Lernens eingesetzt wird.
- Python, C/C++, R, Go, Java, JavaScript, Swift
- Ursprung: Google Brain Team
- Wissenschaftliches Framework und Open-Source-Bibliothek für maschinelles Lernen
- Lua, LuaJIT, C, Python (PyTorch)
- Ursprung:Ronan Collobert, Clement Farabet, Koray Kavukcuoglu
Bedeutung des Internet der Dinge (IoT)
Für die Umsetzung von Industrie 4.0 und KI-Projekten spielen die sog. Cyber-physische Systeme (CPS) eine besondere Rolle. Basierend auf ihrer Technologie kann von jedem physikalischen System eine digitale Kopie im Cyberspace aufgebaut werden. Diese bilden dann – bezogen auf den industriellen Bereich – das Industrielle Internet der Dinge Industrial Internet of Things, IIoT). Ermöglicht werden CPS unter anderen durch folgende technische Entwicklungen:IPv6
Diese Internet-Adressen haben eine Länge von 128 Bit. Sie bilden mit 1038 möglichen Adressen einen Adressraum, mit dem theoretisch jedem Sandkorn auf der Erde eine eigene IP-Adresse zugeordnet werden könnte. Im Gegensatz zum IPv4-Internet können in einem IPv-Internet fast beliebig viele Geräte bzw. Endpunkte aufgenommen werden und so in einem Netzwerk gleichzeitig angesprochen werden.
RFID
Ein RFID-Chip besteht aus einem Mikrochip und einer Antenne. Der Chip erhält seine Energie aus dem elektrischen Feld des RFID-Scanners. Mithilfe elektromagnetischer Wellen werden dem Scanner drahtlos Daten des RFID-Chips übermittelt, wie die ID, technische Merkmale, Produktionsdaten oder Zustandsdaten. In der Produktion sind diese Systeme sehr gut und kostengünstig einsetzbar.
Durch die gleichzeitige Vernetzung von Sensoren, Aktoren, produzierten Teilen oder Produkten, ist es auch möglich, Informationen ständig zwischen diesen Objekten auszutauschen. IPv6-Internet ermöglicht also das IoT im eigentlichen Sinn, die permanente Kommunikation zwischen sehr vielen Objekten in einem unter Umständen sehr großen Netzwerk.
Mithilfe dieser Technologien lässt sich die gesamte Produktion mit allen Maschinen, Sensoren, Aktoren, Werkzeugen, Materialien, Fertigungsteilen und Prozessen in die digitale Welt transformieren, dokumentieren, überwachen und steuern. Dadurch entstehen riesige, wertvolle Datenmengen, die wiederum nur mit Verfahren des Machine Learnings beherrscht werden können. Hier schließt sich der Kreis neuer Technologien aus der realen Welt mit innovativen Methoden des Software-Engineerings zum Nutzen der Industrie.
CRISP-DM
1. Geschäftsverständnis
„Bekomme ein Aufgaben- und Prozessverständnis“
Die Projektziele und -anforderungen sind aus der Geschäftsperspektive zu verstehen, um daraus das Data-Mining-Problem zu definieren und einen vorläufigen Plan zum Erreichen der Ziele zu erarbeiten.
Externe Unterstützung kann bei der Abschätzung der Chancen und Risiken durch Digitalisierung und Machine Learning sinnvoll sein.
2. Datenverständnis
„Sichte die Daten und verstehe sie“
Erste Datenerhebung, um sich mit den Daten vertraut zu machen, Datenqualitätsprobleme zu identifizieren, interessante Teilmengen zu erkennen oder Hypothesen zu versteckten Informationen aufzustellen.
Eigener Wissensaufbau ist erforderlich, externe Unterstützung durch Anwendungsexperten, Data Scientists und Steuerungsexperten kann geboten sein.
3. Datenaufbereitung
„Bereite die Daten vor, säubere und transformiere sie“
Die Erstellung des endgültigen Datensatzes: Tabellen, Datensätze und Attribute auswählen, Daten für Modellierungs-werkzeuge transformieren und bereinigen.
Zukaufbare Softwareprodukte können als Werkzeuge zur Beschleunigung des Prozesses eingesetzt werden; allerdings ist dies abhängig von der vorliegenden Qualität der Daten.
4. Modellierung
„Erzeuge Modelle und generiere Wissen“
Auswahl und Anwendung von Modellierungstechniken und Erstellung eines oder mehrerer Modelle, die aus Sicht der Datenanalyse eine hohe Qualität versprechen.
Eventuell ist die Rückkehr in die Phase der Datenaufbereitung erforderlich, um die Form der Daten zu ändern.
5. Auswertung
„Interpretiere die Ergebnisse“
Gründliche Evaluation der erstellten Modelle im Hinblick auf Erfüllung der ML- Ziele und Prüfung, ob ein wichtiges Geschäftsproblem nicht ausreichend berücksichtigt wurde.
Zukaufbare Softwareprodukte mit fertigen Algorithmen und Entwicklerwerkzeugen sind verfügbar; meist sind Anpassungen bis hin zu Neuentwicklungen erforderlich.
6. Bereitstellung
„Setze alles im Prozess um“
Implementierung und Organisation des gewonnenen Wissens zum Nutzen des Kunden. Aufbau einer entsprechend leistungsfähigen IT-Infrastruktur vom Sammeln, Speichern und Auswerten der Daten, bis zum Einspeisen der Ergebnisse in den Prozess.
Zur IT-Integration kann die Unterstützung durch externe Experten erforderlich sein.
Unser Angebot
Als erfahrener Dienstleister übernehmen wir Planung, Durchführung und Implementierung von Lösungen der Künstlichen Intelligenz im industriellen Bereich.
- Starten Sie in Ihrem Unternehmen ein erstes Machine Learning Projekt , zunächst mit nicht zu hoher Komplexität, z. B. mit Predictive Maintenance
- Gehen Sie das Thema unbedingt an – Sie werden es nicht vermeiden können, sofern Sie Ihr Unternehmen erfolgreich in die Zukunft führen möchten! Ihre erfolgreichsten Wettbewerber werden sich mit KI-Lösungen beschäftigen.
- Planen Sie ausreichend Zeit für die Umsetzung ein, im Zweigel eher etwas mehr, damit Sie keine falschen Erwartungen säen und Enttäuschungen ernten.
- Bleiben Sie bei der Beurteilung von Ergebnissen stets kritisch und prüfen Sie diese auf Grundlage Ihrer Erfahrungen auf Plausibilität. Dann werden Sie einen wirklichen Nutzen aus Ihrer KI-Lösung ziehen können.
- Binden Sie einen qualifizierten, erfahrenen Partner in Ihr erstes KI-Projekt ein.
- Externe Expertise kann auch sinnvoll sein, wenn Sie bereits KI- oder ML-Lösungen einsetzen und mit diesen auf ein höheres Niveau gelangen möchten.
Glossar
Computersysteme, die auf Augenhöhe mit Menschen arbeiten und diese bei schwierigen Aufgaben unterstützen können. Starke KI hat das Ziel, menschliche Problemlösungskreativität, Selbstbewusstsein und Emotionen abzubilden. Stand der Technik und in naher Zukunft kann die Form der starken Künstlichen Intelligenz technisch noch nicht abgebildet werden. Dieser Zeitpunkt wird als Singularität bezeichnet.
Menschliches Denken und technische Anwendungen werden bei konkreten Anwendungsproblemen unterstützt. Schwache KI fokussiert auf die Lösung konkreter Anwendungsfälle durch Simulation von Intelligenz durch Methoden der Informatik, der Statistik und der Mathematik. Im industriellen Bereich finden wir nur Anwendungen, die der schwachen Künstlichen Intelligenz zugeordnet werden können (lernende Intelligenz der Stufe I2).
- Induktives Schließen basiert auf Beobachtungen und der intuitiven Annahme, dass auf Basis dieser Beobachtungen (stets mit begrenzter Anzahl) auf eine Grundgesamtheit geschlossen werden kann (Lernen auf Daten, z. B. beim Maschinellen Lernen). Diese Ergebnisse sind allerdings stets statistisch bzw. wahrscheinlichkeitsbehaftet. Wird z. B. mit der empirischen Modellbildung bei der Blackbox-Methode angewendet.
- Deduktives Schließen erfolgt auf Basis von als wahr definierten Prämissen durch logisches Schlussfolgern, insbesondere in der Mathematik. Wird z. B. mit der analytischen Modellbildung bei der Whitebox-Methode angewendet.
- Symbolische Ansätze: Das Wissen, sowohl die Beispiele als auch die induzierten Regeln sind explizit bekannt (repräsentiert). Unterschieden wird zwischen aussagenlogischen (z. B. ID3, C4.5) und prädikatenlogischen (Anwendung in der induktiven logischen Programmierung) Systemen.
- Nicht-symbolische (sub-symbolische) Ansätze: Ein berechenbares Verhalten wird zwar „antrainiert“, jedoch besteht kein Einblick in die erlernten Lösungswege. Das Wissen ist implizit repräsentiert, z. B. bei künstlichen neuronalen Netzen.
- Vertreter: Delta-Lernregel (einfaches Verfahren); Backpropagation-Lernregel, LSTM-Netze (Long Short-Term Memory) und CNN (Convolutional Neural Networks, Neuronale Faltungsnetzwerke), diese stellen die Idee des Deep-Learning-Systems dar.
- Teilüberwachtes Lernen (semi-supervised learning): Nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt.
- Vertreter: Q-Learning.
- Aktives Lernen (active learning): Der Algorithmus kann für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Informationsgewinn versprechen, um die Anzahl der Fragen möglichst klein zu halten.
- Vertreter: Hebb´sche Lernregel (ältestes Lernverfahren), Competitive Networks und SOM-Lernregel (Selbst-Organisierende Merkmalskarten); die beiden letztgenannten Verfahren zeigen, wie Lernen in der KI funktionieren kann.
- Clustering-Verfahren: Die Daten werden in mehrere Kategorien eingeteilt, die sich durch charakteristische Muster voneinander unterscheiden. Das Verfahren erstellt somit selbständig Klassifikatoren (Zugehörigkeitsbildung), nach denen es die Eingabemuster einteilt.
- Hauptkomponentenanalyse (Dimensionsreduktion, PCA): Das Verfahren verzichtet auf die Kategorisierung. Es zielt durch Komprimierung darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt.
- Batch-Lernen: alle Eingabe/ Ausgabe-Paare werden gleichzeitig trainiert
- Kontinuierliches (sequenzielles) Lernen: die Eingaben werden zeitlich versetzt bzw. nacheinander verarbeitet
- Offline-Lernen: das Training wird auf einem feststehenden Datensatz durchgeführt, der sich nicht verändert
- Online-Lernen: die Eingaben erfolgen auch sequenziell, werden aber sofort verarbeitet
Künstliche neuronale Netze (KNN) bestehen aus künstlichen Neuronen, die entweder eine lineare oder eine nicht-lineare mathematische Funktion darstellen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar. Künstliche Neuronen haben biologische Neuronen als Vorbild.
Dies sind die einfachsten Strukturen von KNN. Sie besitzen keine versteckten Schichten. Die feedforward-Eigenschaft besagt, dass Neuronenausgaben nur in Verarbeitungsrichtung geleitet werden und nicht durch eine rekurrente (rückgekoppelte) Kante zurückgeführt werden können (azyklischer, gerichteter Graph).
Rekurrente Netze besitzen im Gegensatz zu feedforward-Netzen auch rekurrente (rückgerichtete) Kanten und enthalten somit eine Rückkopplung. Solche Kanten werden dann häufig mit einer Zeitverzögerung versehen, sodass bei einer schrittweisen Verarbeitung die Neuronenausgaben der vergangenen Zeiteinheit wieder als Eingaben angelegt werden können. Diese Rückkopplungen ermöglichen ein Verhalten, das dynamisch in der zeitlichen Abfolge der Datenpunkte ist und statten das rekurrente Netz mit einem Gedächtnis aus.
Deep Learning ist der Oberbegriff für alle künstlichen, neuronalen Netze, die verdeckte Schichten benutzen (z.B. mehrschichtige feedforward-Netze, Convolutional Neural Network (CNNs), rekurrente, neuronale Netze) usw.). Durch die freie Verfügbarkeit von Deep-Learning-Frameworks und bereits vortrainierter Netze ist Deep Learning für den Einsatz in der Industrie prädestiniert. Dabei wird der Einsatz nicht nur auf die Verarbeitung von perzeptuellen Daten wie Videos, Bilder oder Sprache beschränkt bleiben.
- Big Data: steht für das Verarbeiten großer, heterogener Datenmengen aus verschiedenen Quellen, deren Geschwindigkeit und Datentypen.
- Small Data: wird in den nächsten Jahren immer wichtiger, da nicht für alle Anwendungsfälle Big Data-Quellen zur Verfügung stehen, aber auch diese Daten als Grundlage für KI dienen sollen.