Künstliche Intelligenz & Machine Learning

Zur Lösung von Aufgaben in der Industrie

Die Themen Künstliche Intelligenz (KI) und Machine Learning (ML) haben den gesamten industriellen Bereich und speziell den Maschinen- und Anlagenbau mit konkreten, praktischen Anwendungsmöglichkeiten erfasst.

Diese Themen stellen kein rein akademisches Forschungsgebiet mehr dar, sondern sind durch ihre Handhabbarkeit in der Realwirtschaft angekommen. Ihre wirtschaftlichen Vorteile sind für zukunftsorientierte Unternehmen eine große Chance, bzw. zur Notwendigkeit geworden.

Mittels maschinellen Lernens lassen sich bisher nicht geschlossen lösbare Fragestellungen beantworten, bestehende Prozesse sowie Prozess- und Produktqualität  optimieren, Prognosen für die Zukunft ableiten und darauf aufbauend neue Geschäftsmodelle entwickeln.

Mit Methoden der agilen Softwareentwicklung, Expertise bei der Implementierung neuer Tools und Erfahrung in der praktischen Umsetzung im Maschinen- und Anlagenbau  können wir Sie auf dem Weg zur Anwendung von Machine Learning  und individuellen Lösungen der Künstlichen Intelligenz effektiv unterstützen.

Bild von Wolfram Schäfer

Der Traum von der selbstlernenden und intelligenten Maschine wird langsam Wirklichkeit und kommt im industriellen Bereich, in den Anwendungsgebieten des Maschinen- und Anlagenbaus an.

Durch den Einsatz von Künstlicher Intelligenz und Machine Learnings bieten sich Möglichkeiten und Vorteile mit ungeahnten Potential zur Lösung von Problemen, zur Optimierung von Prozessen, zur Steigerung der Qualität und für Vorhersagen des Verhaltens von Maschinen in der Zukunft. Die bisherigen, erfolgreichen Technologien und Methoden aus der Hochsprachenentwicklung sind weiterhin richtig und wichtig und werden immer ein Bestandteil der nachhaltigen Softwareentwicklung bleiben. Das agile Vorgehen in der Softwareentwicklung wird durch KI und ML nicht obsolet. Doch das zusätzlich Neue und Interessante für alle Bereiche des Maschinen- und Anlagenbau ist, aus strukturierten und besonders aus unstrukturierten Daten Muster zu erkennen, Algorithmen zu entwickeln und daraus Erkenntnisse für die konkrete Situation und die Zukunft ableiten zu können. Jedes moderne, zukunftsorientierte Unternehmen sollte sich spätestens jetzt mit der Künstlichen Intelligenz und Machine Learning beschäftigen: Prüfen Sie, wo Sie schon immer scheinbar „unlösbare“ Probleme haben oder lassen Sie sich von Beispielen anderer Unternehmen inspirieren. Schauen Sie, ob bzw. wo Sie nützliche Datenbestände haben oder ab sofort aufbauen können. Dann starten Sie möglichst bald mit einem kleineren Projekt, um erste Erfahrungen zu sammeln und schnell erste Erfolge zu erzielen. Lassen Sie sich auf dem Weg zum eigenen Know-how in Ihrem Haus von externen Experten begleiten. Erfahrungsgemäß wird der Einstieg nur so zum Erfolg, schützt Sie vor Enttäuschungen bzw. falschen Erwartungen oder gar Schäden durch falsche Ergebnisse. Da viele andere Unternehmen Ihrer Branche bereits in Lösungen mittels Künstlicher Intelligenz investieren, sollten auch Sie die Themen angehen, um am Ball zu bleiben. Und wenn Sie dies tun, machen Sie es am besten gleich richtig mit einem erfahrenen Partner an der Seite. Wir unterstützen Sie mit unseren Dienstleistungen und begleiten Sie dabei!
Mehr lesen Weniger lesen

Wolfram Schäfer

Geschäftsführer IT Engineering Software Innovations

Künstliche Intelligenz bei iTE SI

Als Softwareunternehmen am Puls der Zeit arbeiten wir täglich an KI-Lösungen für unsere Kunden aus dem Maschinebau und der produzierenden Industrie. Künstliche Inteligenz  bewegt, beschäftigt und fasziniert uns – hier geben wir einen kurzen Einblick in unser Verständnis von KI.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Machine Learning

Machine Learning ist ein Teilgebiet der Künstlichen Intelligenz, für das in der Praxis schon viele konkrete Anwendungen existieren. Dabei werden Systeme befähigt, auf Basis bestehender Daten und Algorithmen Muster zu erkennen und Lösungen zu entwickeln. Die gewonnenen Erkenntnisse können verallgemeinert werden und dienen der Lösung weiterer Probleme und Fragestellungen in der Produktion.

Treiber von Machine Learning in der Industrie

Rechenleistungen von Computern steigen

Rechnerkapazitäten steigen u. a. durch den Einsatz von Graphik-Prozessoren, bei hoher Verfügbarkeit (durch z. B. Cloud-/ Edge-Cloud-Anwendungen) zu sinkenden Kosten, da häufig flexible, nutzungsabhängige Abrechnungsmodelle genutzt werden.

Exponentielles Wachstum von Datenmengen

Durch die Digitalisierung steigen die Datenmengen, welche zur Weiterentwicklung von Algorithmen nötig sind. Zudem wird die Speicherung großer Datenmengen immer kostengünstiger. Trainingsdaten sind der wichtigste Treiber und notwendige Voraussetzung für Fortschritte beim Machine Learning.

Verbesserte Algorithmen

Algorithmen zur Verarbeitung strukturierter und unstrukturierter Daten werden kontinuierlich weiterentwickelt. Sie können komplexere Aufgaben noch schneller mit weniger Rechenleistung lösen. Zudem wird die Anwendung immer einfacher – mittlerweile gibt es sehr viele frei verfügbare Frameworks für die Umsetzung von KI-Lösungen, welche die Einstiegshürden stark reduzieren.

Kommunikation von Objekten

Das IIoT ermöglicht Objekten die Kommunikation physikalischer Zustände (z. B. Temperatur, Druck, Bewegung etc.) und die Interaktion mit anderen Objekten oder ihrer Umgebung. Herausforderungen in diesem Zusammenhang sind die Konnektivität  und Antwortzeiten annähernd in Echtzeit.

Anwendungsmöglichkeiten von Machine Learning

Einsatzbereich:
z. B. Beurteilung der Qualität von Oberflächen mit Texturen in der industriellen Bildverarbeitung.

Vorgehen:
Algorithmen werden mit von Menschen beurteilten Bildern von typischen Gut-Teilen angelernt. Das System lernt, wie ein Gut-Teil mit zulässigen Streuungen auszusehen hat. Daraus ergibt sich ein Erwartungsbild. Abweichungen von diesem Erwartungsbild werden erkannt und als Auffälligkeiten eingestuft.

Einsatzbereich:
z. B. bei Optimierung komplexer physikalischer Maschinenprozesse in der Produktion mit zahlreichen Parametern und Einflussgrößen, deren Einfluss auf den Prozess nicht bekannt ist.

Voraussetzung:
ausreichende Menge an Datensätzen mit Einflussgrößen, bei denen das Ergebnis zufriedenstellend war.

Einsatzbereich:
z. B. Industrial-Analytics-Projekt zum Verbessern der Gesamtanlageneffektivität (Verfügbarkeit, Leistung & Qualität) zur Ermittlung des Optimierungspotenzials der Anlage bzw. Maschine bzw. der Produktion.

Empfehlung:
Speicherung großer Datenmengen am Entstehungsort, z. B. in einer Edge-Cloud auf einem Standard-IPC.

Einsatzbereich:
z. B. automatisiertes Angebot für komplexe Maschinen bzw. Anlagen mit vielen Optionen und Konfigurationsmöglichkeiten nach individuellem Kundenwunsch.
Voraussetzung:
ausreichender Satz historischer Daten von Maschinenkonfigurationen und Kosten in strukturierter Form mit laufender Aktualisierung hinsichtlich neu verfügbarer Optionen, Kostenanpassungen etc.

  • autonom fahrende Fahrzeuge im Automobilbereich
  • Erkennung von Kreditkartenbetrug
  • Aktienmarktanalysen in der Finanzwirtschaft
  • Vorhersage von Leistungsspitzen in der Energiewirtschaft
  • Klassifikation von Nukleotidsequenzen (DNA) in der medizinischen Forschung
  • Sprach- und Texterkennung im IT-/Kommunikationssektor

Case Studies zu Machine Learning

Predictive Maintenance

Predictive Maintenance (Voraussschauende Wartung) stellt den wohl greifbarsten Anwendungsfall von Industrie 4.0 dar. Durch kontinuierliche Datenerfassung in der Produktion sowie deren Analyse mittels Verfahren des maschinellen Lernens oder der Statistik lässt sich der gegenwärtige Zustand von Produktionsmaschinen bestimmen und dessen zukünftige Entwicklung vorausberechnen. Ein Nachlassen in der Produktionsleistung, der Produktqualität oder gar der Ausfall von Maschinen kann somit frühzeitig erkannt werden. Im Idealfall gelingt es, Instandhaltungsmaßnahmen anzubieten bzw. zu beauftragen, noch bevor es zu Problemen kommt.

Für den Anlagenbetreiber liegt der Nutzen sowohl in der gesteigerten Produktionsleistung – Verfügbarkeit und Qualität – als auch in der Reduktion von Kosten für Instandhaltungsarbeiten und Lagerhaltung. Das Potenzial der vorausschauenden Instandhaltung fußt dabei auf folgenden Eckpfeilern der Digitalisierung: Vernetzung und Kommunikation der Maschinen, moderne Sensortechnik und digitale Daten sowie automatisierte und intelligente Datenanalyse (z. B. durch unüberwachtes Lernen).

Mehr lesen Weniger lesen

Vorteile von Predictive Maintenance

  • Senkung der Wartungskosten um bis zu 30%
  • Reduzierung der Stillstandszeiten um bis zu 70%
  • Erhöhung der Ausfallsicherheit
  • Steigerung der Fertigungsqualität
  • Optimierung von Prozessen in der Produktion

Es ist wichtig mit Expertenwissen und Erfahrung in ein Machine Learning Projekt zu starten, um Chancen und Risiken korrekt beurteilen zu können. Wir unterstützen Sie gerne dabei.

Bild von Wolfram Schäfer

Wolfram Schäfer

Geschäftsführer IT Engineering Software Innovations

Umsetzung von Predictive Maintenance

Der Einstieg in Predictive Maintenance muss nicht aufwendig oder teuer sein. Mit den IIoT Building Blocks bieten wir eine Lösung, mit der schnell und einfach aus erfassten Daten gelernt werden kann. Die drei Bausteine Collect, Explore und Improve unterstützen Sie beim Start und der konkreten Umsetzung von Predictive Maintenance in Ihrer Produktion.

Bedeutung von Daten

Wenn Machine Learning-Algorithmen den Motor für künftige Entwicklungen und Lösungen darstellen, dann sind Daten der Treibstoff. Daten sind das A und O des maschinellen Lernens.

Daten sind der Schlüssel beim Machine Learning

  • der Zugang zu qualitativ hochwertigen Daten ist die Grundlage für Machine Learning
  • Beispiele sind Daten aus Steuerungen, Sensoren, Aktoren, Datenbanken, Produktionsflussdaten oder Wetterdaten
  • damit Algorithmen Muster erkennen können, müssen Daten in ausreichender Menge vorliegen
  • es ist nicht immer vorhersehbar, welche und wie viele Daten für die erforderliche Modellqualität und Genauigkeit notwendig sind
  • mehr Daten führen nicht unbedingt zu mehr bzw. besseren Mustern

Datengetriebene Lösungsfindung

Klassische Vorgehensweise

Im klassischen Fall wird der Algorithmus ohne Zuhilfenahme einer Datengrundlage vom Menschen entwickelt und auf einen Satz von Eingabedaten angewendet. Es wird nur ein sehr explizites Modell gewählt, das durch genaue Analyse des Problems gefunden wird. Die daraus resultierende Ausgabe wird für die Entscheidung herangezogen.

Vorgehensweise mit Machine Learning

Der Mensch gibt nur ein sehr allgemeines Modell vor, das durch Festlegung von Parametern kalibriert wird. Das Modell „lernt“ aus den Daten und passt sein zuvor willkürliches Verhalten an das gewünschte Verhalten an. Mithilfe der Daten wird aus dieser großen Zahl von Ansätzen einer ermittelt, der den Zusammenhang sehr gut darstellt. Durch Ausnutzung der Daten wird ein Algorithmus festgelegt, durch dessen Anwendung eine Entscheidung getroffen wird.

Teilbereiche von Künstlicher Intelligenz

Der Begriff „Künstliche Intelligenz“ umfasst sämtliche Technologien, welche die Nachahmung der menschlichen Intelligenz zum Ziel haben. Machine Learning als Teilgebiet der Künstlichen Intelligenz umfasst sämtliche Werkzeuge, Algorithmen und Methoden zur Konzeption, Modellierung und Umsetzung von KI-Lösungen. Mithilfe von Künstlichen neuronalen Netzen wird die Grundidee der Informationsverarbeitung im menschlichen Gehirn nachgeahmt. Bei Deep Learning handelt es sich schließlich um eine spezielle Methode der Informationsverarbeitung, bei der neuronale Netze mit großen Datenmengen trainiert werden.

Teilbereiche von Machine Learning

Algorithmus lernt Funktion aus vorgegebenen Ein- und Ausgabewerten

nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt

Algorithmus erkennt ohne zusätzliche Vorgabe von Ausgabewerten selbstständig Muster in Eingabedaten, etwa um diese in Klassen einzuteilen („Clustering“)

Algorithmus lernt durch „Belohnung“ und „Bestrafung“, wie in potentiell auftretenden Situationen zu handeln ist, um Nutzen zu maximieren

Einsatz neuronaler Netze in der Praxis

Beim Einsatz künstlicher neuronaler Netze z. B. für Regressionsschätzungen stellt sich die Frage nach der richtigen Anzahl von Neuronen. Neuronen bestimmen die Freiheitsgrade einer Regression und somit die Speicherkapazität des neuronalen Netzes. Ziel ist es, die Anzahl der Freiheitsgrade möglichst gering zu halten, um zu vermeiden, dass das neuronale Netz die Daten nur auswenig lernt und nicht versteht. Bei einer zu geringen Neuronenanzahl hat das Netz zu wenig Kapazität, um allgemeine Muster erkennen zu können. Es ist zu klein, um die Trainingsdaten zu lernen, die Genauigkeit ist schon auf den Trainingsdaten gering (Underfitting).

Deep Learning bei der Bilderkennung

Ein erfolgreich auf Mustererkennung trainiertes Deep-Learning-Netz kann große Probleme bei der Klassifikation haben, wenn z. B. in einem Bild zusätzlich ein neues, bisher nicht trainiertes Objekt erscheint. Dann wird möglicherweise im Ganzen etwas anderes, etwas völlig Falsches „erkannt“ und das Machine Learning Modell ordnet den Input der falschen Klasse zu. Das liegt daran, dass das Netz keinerlei semantische Intelligenz besitzt. Weiterhin sind Aussagen, die induktiv gewonnen wurden, stets nur statistische Ergebnisse. Die Entscheidungsregeln sind in einer Blackbox verborgen. Es bleibt also immer ein gewisses Fehlerrisiko erhalten.

Bei zu vielen Neuronen hingegen, ist das Netz zu groß, um verallgemeinern zu müssen, und die Genauigkeit auf unbekannten Eingaben ist gering (Overfitting). Daher muss zwischen den erreichbaren Genauigkeiten auf Basis der bekannten Lerndaten und der Güte im Anwendungsfall für unbekannte Daten stets ein Kompromiss getroffen werden (Generalisierungsfehler). Zur Beurteilung der Qualität neuronaler Netze wurden deshalb Gütemaße entwickelt.
Mehr lesen Weniger lesen

Softwaretools und Plattformen für KI-Projekte

Zur Umsetzung von KI-Lösungen stehen diverse Deep-Learning-Frameworks bzw. Plattformen zur Verfügung. Folgende Übersicht zeigt gängige Tools, die wir erfolgreich einsetzen.

  • Programmbibliothek für Deep Learning
  • Python, C++, Matlab
  • Ursprung: Berkeley Vision and Learning Center, University of California
  • Open-Source-Software für Deep-Learning, die ein künstliches neuronales Netz implementiert
  • Java, Scala, Clojure, Kotlin, Python
  • Ursprung:
    Adam Gibson, Skymind Engineering Team, DL4J Community
  • Open Source Deep-Learning-Bibliothek, ab Version 1.4.0 auch in der TensorFlow-API enthalten
  • Python, R
  • Ursprung:
    François Chollet
  • Open Source Deep-Learning-Software, die zum Trainieren und Bereitstellen von Deep-Neural-Netzwerken verwendet wird
  • C++, Python, Julia, Matlab, JavaScript, Go, R, Scala, Perl
  • Ursprung:
    Apache Software Foundation
  • Open Source Bibliothek, die ein künstliches neurales Netz implementiert
  • C++
  • Ursprung: Artelnics
  • Framework zur datenstromorientierten Programmierung, das populär im Bereich des maschinellen Lernens eingesetzt wird.
  • Python, C/C++, R, Go, Java, JavaScript, Swift
  • Ursprung: Google Brain Team
  • Wissenschaftliches Framework und Open-Source-Bibliothek für maschinelles Lernen
  • Lua, LuaJIT, C, Python (PyTorch)
  • Ursprung:
    Ronan Collobert, Clement Farabet, Koray Kavukcuoglu 
Mehr lesen Weniger lesen

Bedeutung des Internet der Dinge (IoT)

Für die Umsetzung von Industrie 4.0 und KI-Projekten spielen die sog. Cyber-physische Systeme (CPS) eine besondere Rolle. Basierend auf ihrer Technologie kann von jedem physikalischen System eine digitale Kopie im Cyberspace aufgebaut werden. Diese bilden dann – bezogen auf den industriellen Bereich – das Industrielle Internet der Dinge Industrial Internet of Things, IIoT). Ermöglicht werden CPS unter anderen durch folgende technische Entwicklungen:

IPv6

Diese Internet-Adressen haben eine Länge von 128 Bit. Sie bilden mit 1038 möglichen Adressen einen Adressraum, mit dem theoretisch jedem Sandkorn auf der Erde eine eigene IP-Adresse zugeordnet werden könnte. Im Gegensatz zum IPv4-Internet können in einem IPv-Internet fast beliebig viele Geräte bzw. Endpunkte aufgenommen werden und so in einem Netzwerk gleichzeitig angesprochen werden.

RFID

Ein RFID-Chip besteht aus einem Mikrochip und einer Antenne. Der Chip erhält seine Energie aus dem elektrischen Feld des RFID-Scanners. Mithilfe elektromagnetischer Wellen werden dem Scanner drahtlos Daten des RFID-Chips übermittelt, wie die ID, technische Merkmale, Produktionsdaten oder Zustandsdaten. In der Produktion sind diese Systeme sehr gut und kostengünstig einsetzbar.

Durch die gleichzeitige Vernetzung von Sensoren, Aktoren, produzierten Teilen oder Produkten, ist es auch möglich, Informationen ständig zwischen diesen Objekten auszutauschen. IPv6-Internet ermöglicht also das IoT im eigentlichen Sinn,  die permanente Kommunikation zwischen sehr vielen Objekten in einem unter Umständen sehr großen Netzwerk.

Mehr lesen Weniger lesen

Mithilfe dieser Technologien lässt sich die gesamte Produktion mit allen Maschinen, Sensoren, Aktoren, Werkzeugen, Materialien, Fertigungsteilen und Prozessen in die digitale Welt transformieren, dokumentieren, überwachen und steuern. Dadurch entstehen riesige, wertvolle Datenmengen, die wiederum nur mit Verfahren des Machine Learnings beherrscht werden können. Hier schließt sich der Kreis neuer Technologien aus der realen Welt mit innovativen Methoden des Software-Engineerings zum Nutzen der Industrie.

Mehr lesen Weniger lesen

CRISP-DM

Cross Industry Standard Process for Data Mining ist ein branchenübergreifender Standardprozess mit einem iterativen, agilen Vorgehen. Er beschreibt allgemeine Ansätze, an denen sich der Ablauf von Data-Science-Projekten orientieren kann. Dabei werden in jeder Phase Punkte hervorgehoben, die beachtet werden müssen, um den gesamten Prozess nachvollziehbar zu gestalten und die Ziele im Blick zu behalten. Auch für uns bietet CRISP-DM ein hilfreicher Rahmen, nach dem wir unser Vorgehen bei Machine Learning- Projekten ausrichten.
 
 
Grafik zeigt Standard-Vorgehensmodell CRISP-DM
Standard-Vorgehensmodell CRISP-DM

1. Geschäftsverständnis

„Bekomme ein Aufgaben- und Prozessverständnis“
Die Projektziele und -anforderungen sind aus der Geschäftsperspektive zu verstehen, um daraus das Data-Mining-Problem zu definieren und einen vorläufigen Plan zum Erreichen der Ziele zu erarbeiten.

Externe Unterstützung kann bei der Abschätzung der Chancen und Risiken durch Digitalisierung und Machine Learning sinnvoll sein.

2. Datenverständnis

„Sichte die Daten und verstehe sie“
Erste Datenerhebung, um sich mit den Daten vertraut zu machen, Datenqualitätsprobleme zu identifizieren, interessante Teilmengen zu erkennen oder Hypothesen zu versteckten Informationen aufzustellen.

Eigener Wissensaufbau ist erforderlich, externe Unterstützung durch Anwendungsexperten, Data Scientists und Steuerungsexperten kann geboten sein.

3. Datenaufbereitung

„Bereite die Daten vor, säubere und transformiere sie“
Die Erstellung des endgültigen Datensatzes: Tabellen, Datensätze und Attribute auswählen, Daten für Modellierungs-werkzeuge transformieren und bereinigen.

Zukaufbare Softwareprodukte können als Werkzeuge zur Beschleunigung des Prozesses eingesetzt werden; allerdings ist dies abhängig von der vorliegenden Qualität der Daten.

4. Modellierung

„Erzeuge Modelle und generiere Wissen“
Auswahl und Anwendung von Modellierungstechniken und Erstellung eines oder mehrerer Modelle, die aus Sicht der Datenanalyse eine hohe Qualität versprechen.

Eventuell ist die Rückkehr in die Phase der Datenaufbereitung erforderlich, um die Form der Daten zu ändern.

5. Auswertung

„Interpretiere die Ergebnisse“
Gründliche Evaluation der erstellten Modelle im Hinblick auf Erfüllung der ML- Ziele und Prüfung, ob ein wichtiges Geschäftsproblem nicht ausreichend berücksichtigt wurde.

Zukaufbare Softwareprodukte mit fertigen Algorithmen und Entwicklerwerkzeugen sind verfügbar; meist sind Anpassungen bis hin zu Neuentwicklungen erforderlich.

6. Bereitstellung

„Setze alles im Prozess um“
Implementierung und Organisation des gewonnenen Wissens zum Nutzen des Kunden. Aufbau einer entsprechend leistungsfähigen IT-Infrastruktur vom Sammeln, Speichern und Auswerten der Daten, bis zum Einspeisen der Ergebnisse in den Prozess.

Zur IT-Integration kann die Unterstützung durch externe Experten erforderlich sein.

 

Unser Angebot

Als erfahrener Dienstleister übernehmen wir Planung, Durchführung und Implementierung von Lösungen der Künstlichen Intelligenz im industriellen Bereich.

  • Starten Sie in Ihrem Unternehmen ein erstes Machine Learning Projekt , zunächst mit nicht zu hoher Komplexität, z. B. mit Predictive Maintenance 
  • Gehen Sie das Thema unbedingt an – Sie werden es nicht vermeiden können, sofern Sie Ihr Unternehmen erfolgreich in die Zukunft führen möchten! Ihre erfolgreichsten Wettbewerber werden sich mit KI-Lösungen beschäftigen.
  • Planen Sie ausreichend Zeit für die Umsetzung ein, im Zweigel eher etwas mehr, damit Sie keine falschen Erwartungen säen und Enttäuschungen ernten.
  • Bleiben Sie bei der Beurteilung von Ergebnissen stets kritisch und prüfen Sie diese auf Grundlage Ihrer Erfahrungen auf Plausibilität. Dann werden Sie einen wirklichen Nutzen aus Ihrer KI-Lösung ziehen können.
  • Binden Sie einen qualifizierten, erfahrenen Partner in Ihr erstes KI-Projekt ein.
  • Externe Expertise kann auch sinnvoll sein, wenn Sie bereits KI- oder ML-Lösungen einsetzen und mit diesen auf ein höheres Niveau gelangen möchten.

Glossar

Künstliche Intelligenz ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens und dem maschinellen Lernen (Machine Learning) befasst. „… maschinelle Simulation jedes Aspekts von Lernen und anderer Fähigkeiten der menschlichen Intelligenz, wie Sprachverständnis, Abstraktion und Entwicklung von Ideen.“ [McCarthy, 1955]. KI-Systeme sind digitale Geräte und Maschinen, auf denen sehr clevere Softwareverfahren und Algorithmen höherer Mathematik in Echtzeit laufen.

Computersysteme, die auf Augenhöhe mit Menschen arbeiten und diese bei schwierigen Aufgaben unterstützen können. Starke KI hat das Ziel, menschliche Problemlösungskreativität, Selbstbewusstsein und Emotionen abzubilden. Stand der Technik und in naher Zukunft kann die Form der starken Künstlichen Intelligenz technisch noch nicht abgebildet werden. Dieser Zeitpunkt wird als Singularität bezeichnet.

Menschliches Denken und technische Anwendungen werden bei konkreten Anwendungsproblemen unterstützt. Schwache KI fokussiert auf die Lösung konkreter Anwendungsfälle durch Simulation von Intelligenz durch Methoden der Informatik, der Statistik und der Mathematik. Im industriellen Bereich finden wir nur Anwendungen, die der schwachen Künstlichen Intelligenz zugeordnet werden können (lernende Intelligenz der Stufe I2).

Kognitiv intelligent beschreibt KI-Systeme, bei denen die Methoden der induktiven und der deduktiven Wissensverarbeitung optimal miteinander verschmolzen sind.
  • Induktives Schließen basiert auf Beobachtungen und der intuitiven Annahme, dass auf Basis dieser Beobachtungen (stets mit begrenzter Anzahl) auf eine Grundgesamtheit geschlossen werden kann (Lernen auf Daten, z. B. beim Maschinellen Lernen). Diese Ergebnisse sind allerdings stets statistisch bzw. wahrscheinlichkeitsbehaftet. Wird z. B. mit der empirischen Modellbildung bei der Blackbox-Methode angewendet.
  • Deduktives Schließen erfolgt auf Basis von als wahr definierten Prämissen durch logisches Schlussfolgern, insbesondere in der Mathematik. Wird z. B. mit der analytischen Modellbildung bei der Whitebox-Methode angewendet.
Maschinelles Lernen ist ein Oberbegriff für die „künstliche“ Generierung von Wissen aus Daten (Erfahrungen): Ein künstliches System lernt mit Trainingsdaten und kann diese nach Beendigung der Lernphase durch Mustererkennung verallgemeinern. Dazu bauen Algorithmen ein statistisches Modell auf.
  • Symbolische Ansätze: Das Wissen, sowohl die Beispiele als auch die induzierten Regeln sind explizit bekannt (repräsentiert). Unterschieden wird zwischen aussagenlogischen (z. B. ID3, C4.5) und prädikatenlogischen (Anwendung in der induktiven logischen Programmierung) Systemen.
  • Nicht-symbolische (sub-symbolische) Ansätze: Ein berechenbares Verhalten wird zwar „antrainiert“, jedoch besteht kein Einblick in die erlernten Lösungswege. Das Wissen ist implizit repräsentiert, z. B. bei künstlichen neuronalen Netzen.
Der Algorithmus lernt eine Funktion aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt ein „Lehrer“ während des Lernens den korrekten Funktionswert zu einer Eingabe bereit.
  • Vertreter: Delta-Lernregel (einfaches Verfahren); Backpropagation-Lernregel, LSTM-Netze (Long Short-Term Memory) und CNN (Convolutional Neural Networks, Neuronale Faltungsnetzwerke), diese stellen die Idee des Deep-Learning-Systems dar.
  • Teilüberwachtes Lernen (semi-supervised learning): Nur für einen Teil der Eingaben sind die dazugehörigen Ausgaben bekannt.
Der Algorithmus lernt durch Belohnung und Bestrafung eine Taktik, wie in potenziell auftretenden Situationen zu handeln ist, um den Nutzen des Agenten (d. h. des Systems, zu dem die Lernkomponente gehört) zu maximieren. Dies ist die häufigste Lernform beim Menschen und basiert auf den Belohnungsprinzipien.
  • Vertreter: Q-Learning.
  • Aktives Lernen (active learning): Der Algorithmus kann für einen Teil der Eingaben die korrekten Ausgaben zu erfragen. Dabei muss der Algorithmus die Fragen bestimmen, welche einen hohen Informationsgewinn versprechen, um die Anzahl der Fragen möglichst klein zu halten.
Der Algorithmus erzeugt für eine gegebene Menge von Eingaben ein statistisches Modell, das die Eingaben beschreibt und erkannte Kategorien und Zusammenhänge enthält. Man trainiert also nicht auf ein Ziel hin, sondern erhält Informationen über die Eingangsdaten. Das Verfahren dient beim maschinellen Lernen dem Data Mining.

  • Vertreter: Hebb´sche Lernregel (ältestes Lernverfahren), Competitive Networks und SOM-Lernregel (Selbst-Organisierende Merkmalskarten); die beiden letztgenannten Verfahren zeigen, wie Lernen in der KI funktionieren kann.
  • Clustering-Verfahren: Die Daten werden in mehrere Kategorien eingeteilt, die sich durch charakteristische Muster voneinander unterscheiden. Das Verfahren erstellt somit selbständig Klassifikatoren (Zugehörigkeitsbildung), nach denen es die Eingabemuster einteilt.
  • Hauptkomponentenanalyse (Dimensionsreduktion, PCA): Das Verfahren verzichtet auf die Kategorisierung. Es zielt durch Komprimierung darauf ab, die beobachteten Daten in eine einfachere Repräsentation zu übersetzen, die sie trotz drastisch reduzierter Information möglichst genau wiedergibt.
  • Batch-Lernen: alle Eingabe/ Ausgabe-Paare werden gleichzeitig trainiert
  • Kontinuierliches (sequenzielles) Lernen: die Eingaben werden zeitlich versetzt bzw. nacheinander verarbeitet
  • Offline-Lernen: das Training wird auf einem feststehenden Datensatz durchgeführt, der sich nicht verändert
  • Online-Lernen: die Eingaben erfolgen auch sequenziell, werden aber sofort verarbeitet

Künstliche neuronale Netze (KNN) bestehen aus künstlichen Neuronen, die entweder eine lineare oder eine nicht-lineare mathematische Funktion darstellen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar. Künstliche Neuronen haben biologische Neuronen als Vorbild.

Grafik zeigt künstliche neuronale Netze

Dies sind die einfachsten Strukturen von KNN. Sie besitzen keine versteckten Schichten. Die feedforward-Eigenschaft besagt, dass Neuronenausgaben nur in Verarbeitungsrichtung geleitet werden und nicht durch eine rekurrente (rückgekoppelte) Kante zurückgeführt werden können (azyklischer, gerichteter Graph).

Grafik zeigt einschichtiges feedworward-Netz

Mehrschichtige feedforward-Netze besitzen neben der Ausgabeschicht auch verdeckte Schichten, deren Ausgaben außerhalb des Netzes nicht sichtbar sind. Verdeckte Schichten verbessern die Abstraktion (z. B. Multi-Layer-Perceptions, MLP). Das mehrschichtige Perzeptron (englisch perception = Wahrnehmung) kann das XOR-Problem (Testproblem für NN) im Gegensatz zu einschichtigen Netzen lösen.

Grafik zeigt mehrschichtiges feedworward-Netz

Rekurrente Netze besitzen im Gegensatz zu feedforward-Netzen auch rekurrente (rückgerichtete) Kanten und enthalten somit eine Rückkopplung. Solche Kanten werden dann häufig mit einer Zeitverzögerung versehen, sodass bei einer schrittweisen Verarbeitung die Neuronenausgaben der vergangenen Zeiteinheit wieder als Eingaben angelegt werden können. Diese Rückkopplungen ermöglichen ein Verhalten, das dynamisch in der zeitlichen Abfolge der Datenpunkte ist und statten das rekurrente Netz mit einem Gedächtnis aus.

Grafik zeigt rekurrierendes Netz

Deep Learning ist der Oberbegriff für alle künstlichen, neuronalen Netze, die verdeckte Schichten benutzen (z.B. mehrschichtige feedforward-Netze, Convolutional Neural Network (CNNs), rekurrente, neuronale Netze) usw.). Durch die freie Verfügbarkeit von Deep-Learning-Frameworks und bereits vortrainierter Netze ist Deep Learning für den Einsatz in der Industrie prädestiniert. Dabei wird der Einsatz nicht nur auf die Verarbeitung von perzeptuellen Daten wie Videos, Bilder oder Sprache beschränkt bleiben.

Grafik zeigt Deep Learning mit mehrschichtigen Netzen

Darunter versteht man die systematische Anwendung computergestützter, statistischer Methoden auf große Datenbestände mit dem Ziel, unbekannte, nicht-triviale Strukturen, Zusammenhänge und Trends zu erkennen.

  • Big Data: steht für das Verarbeiten großer, heterogener Datenmengen aus verschiedenen Quellen, deren Geschwindigkeit und Datentypen.
  • Small Data: wird in den nächsten Jahren immer wichtiger, da nicht für alle Anwendungsfälle Big Data-Quellen zur Verfügung stehen, aber auch diese Daten als Grundlage für KI dienen sollen.