© Ingara - Freepik.com

Klassische und KI-basierte DatenanalyseKlassische und KI-basierte Datenanalyse

Die Analyse von Daten hilft, Prozesse und Maschinen besser zu verstehen und schließlich optimieren zu können. Wir erläutern die Potentiale und Herausforderungen KI-basierter Datenanalyse.

Potenziale der Datenanlyse für KMU: Daten helfen bei der Optimierung

Die Hauptmotivation, um Daten auszuwerten bzw. zu analysieren, besteht darin, neue Erkenntnisse bzw. Wissen mit weniger Aufwand zu gewinnen. So hilft die Datenanalyse zum Beispiel, bereits existierende Abläufe, Prozesse und Maschinen besser zu verstehen.
Allgemein erwartet man durch den Einsatz von datenbasierten Anwendungen eine Steigerung der Produktivität sowie der Qualität der Erzeugnisse bei einer gleichzeitigen Reduzierung des Ressourcenverbrauchs. Kurz: eine weitere Optimierung der Produktion oder der Geschäftsprozesse.

Was ist Datenanalyse?

Bei einer Datenanalyse werden Rohdaten bzw. Informationen mit Hilfe von “klassischen” mathematisch-statistischen Verfahren oder auch mit Hilfe von künstlicher Intelligenz (KI) in Wissen und Erkenntnisse umgewandelt, die später zum Treffen von Entscheidungen dienen können ̶ und zwar in allen möglichen Bereichen. Der Standardablauf einer Datenanalyse beinhaltet 6 Phasen, welche in einem Vorgehensmodell zusammengefasst sind [1]:

  1. Geschäftsverständnis oder Prozessverständnis (Englisch: Business Understanding)
  2. Datenerfassung und Datenverständnis (Englisch: Data Understanding)
  3. Datenvorverarbeitung (Englisch: Data Preparation)
  4. eigentliche Datenanalyse bzw. Modellierung (Englisch: Modeling)
  5. Evaluierung (Englisch: Evaluation)
  6. Bereitstellung der Lösung (Englisch: Deployment)

„Klassische Datenanalyse“

Die “klassische” Datenanalyse basiert auf einer Fülle mathematisch-statistischer Verfahren, von denen die meisten in den letzten 200 Jahren entstanden sind. Diese Verfahren stellen ein wichtiges Instrument zur Beschreibung von Daten, deren Verteilungen und weiterer Eigenschaften bzw. Zusammenhänge sowie zur Prüfung von Hypothesen dar. Diese klassischen Analyseverfahren werden unter anderem in der deskriptiven Statistik eingesetzt:

  • Korrelationsanalyse: Untersuchung des Zusammenhangs zwischen mehreren (Prozess-)Variablen
  • Regressionsanalyse: Modellierung von Beziehungen zwischen unterschiedlichen unabhängigen Variablen
  • Varianzanalyse: Suche nach Unterschieden zwischen Daten aus mehreren Gruppen oder Kategorien. Damit können z. B. bestimmte Einflußfaktoren auf die Produktqualität bestätigt oder abgelehnt werden.
  • Hinzu kommen viele weitere „statische“ Verfahren – Verfahren, bei denen die interne Prozessdynamik keine Rolle spielt bzw. wo die zeitlichen Abhängigkeiten im Datenmaterial vernachlässigbar sind.

Eine weitere Gruppe “klassischer” Analyseverfahren stellen die sogenannten “dynamischen” Verfahren dar. Bei diesen Methoden spielen die dynamischen Vorgänge im vorhandenen Datenmaterial eine entscheidende Rolle. Die Verfahren kommen unter anderem in der Regelungstechnik zum Einsatz:

  • Kreuz- und Autokorrelationsfunktionen: Beschreibung der Korrelation eines Signals mit einem anderen (oder auch mit sich selbst) zu einem früheren Zeitpunkt. Diese Analyse-Routinen erlauben erste Einblicke in das vorhandene Datenmaterial.
  • Fourier-Transformation: mathematisches Verfahren, mit dem Signale aus dem Zeitbereich in den Frequenzbereich transformiert werden. Damit kann das Frequenzspektrum eines beliebigen zeitbezogenen Signals bestimmt werden.
  • Bode-Diagramme bzw. Amplituden- und Phasengänge: Beschreibung des Zusammenhangs zwischen einer harmonischen Anregung („Sinusschwingung“) an einem Prozesseingang und dem zugehörigen Ausgangssignal.
  • Darüber hinaus viele weitere „dynamische“ Verfahren – Verfahren, bei denen die interne Prozessdynamik eine wichtige Rolle spielt, wie zum Beispiel bei der Fehlerdiagnose an rotierenden Maschinen oder beim Reglerentwurf.

KI-basierte Datenanalyse

Unter einer künstlichen Intelligenz (KI) versteht man in der Regel die Fähigkeit eines Computerprogramms, mit neuen bzw. unbekannten Situationen erfolgreich umzugehen, neue Informationen „zu verstehen” und aus den verfügbaren Daten Wissen zu generieren, um gestellte Aufgaben zu lösen. Eben der letzte Aspekt ist für die allgemeine Aufgabe der Datenanalyse sehr interessant: mit einem geschickten KI-Einsatz können aus den Daten neue Erkenntnisse bzw. Wissen automatisiert gewonnen werden. Dieser Aspekt gilt als ein Teilgebiet der KI und wird als “maschinelles Lernen” (ML) bezeichnet.

Und wie funktioniert das ML?

Die KI- Algorithmen erzeugen beim maschinellen Lernen ein statistisches Modell, das meistens auf Trainingsdaten beruht und welches mit Hilfe von Testdaten geprüft wird (“überwachtes Lernen”). Dabei werden nicht einfach die Beispieldaten auswendig gelernt, sondern Muster und Zusammenhänge aus den Trainingsdaten erkannt und abstrahiert. Damit kann der ML-Algorithmus bzw. das KI-System auch bisher unbekannte Daten analysieren.
Mögliche Anwendungen KI-basierter Datenanalyse sind recht vielfältig: automatisierte Fehlererkennung und Diagnose¬, Maschinenzustandsüberwachung und Anomalieerkennung, optische Qualitätsüberwachung und virtuelle Sensorik, Sprach- und Texterkennung sowie viele weitere[1][2]
Interessanterweise werden die “klassischen” Datenanalyseverfahren sehr oft zur ersten „Verdichtung“ der Information benutzt, um die Effizienz der KI-Auswertungen zu erhöhen: es werden erstmal die sogenannten Features bzw. Merkmale aus den Daten extrahiert, und erst dann kommt die KI ins Spiel und versucht auf Basis von Features bessere bzw. genauere Modelle zu erzeugen.

Herausforderungen: Prozess-Know-how und Datenqualität

Egal ob Sie Ihre Daten mit “klassischen” oder mit KI–Verfahren analysieren: der Erfolg einer Datenanalyse hängt entscheidend von zwei Faktoren ab:

  1. Prozesswissen bzw. Prozess-Know-how: unterschiedliche Fragestellungen bzw. Prozesseigenschaften erfordern die Anwendung passender Analyseverfahren. Dies gilt auch für die beiden Fälle “statische” oder “dynamische” Daten. Die Anwendung einer Regressionsanalyse auf hochdynamische Daten – z. B. aus einem Beschleunigungssensor – würde zu falschen Ergebnissen bzw. Modellen führen.
  2. Qualität der für die Analyse bereitgestellten Daten: hier gilt “Garbage in – Garbage out”. Die Verwendung korrekter Analyseverfahren an den inkorrekten Daten würde genauso zu falschen Ergebnissen bzw. Modellen führen, wie die Anwendung unpassender Analysemethoden. Die Einhaltung bzw. Kontrolle der Datenqualität ist somit eine unerlässliche Voraussetzung für eine erfolgreiche Datenanalyse. Genau dafür braucht man den 3. Schritt aus dem allgemeinen Vorgehensmodell zur Datenanalyse: die Datenvorverarbeitung.

Fazit

Datenanalyse kann sowohl bei der Optimierung von technischen als auch von Geschäftsprozessen helfen. Die Wahl eines konkreten Analyseverfahrens hängt dabei von der eigentlichen Fragestellung bzw. von den jeweiligen Prozesseigenschaften ab. Eine KI-basierte Datenanalyse hat den Vorteil, leichter automatisiert zu werden. Jedoch sind die “klassischen” Analyseverfahren immer noch sehr mächtig und können sehr gut mit KI kombiniert werden, um bessere Ergebnisse bei der Datenanalyse zu erreichen.

Weiterführende Informationen

  1. KI im produzierenden Mittelstand: Anwendungsgebiete & Lösungen
  2. Künstliche Intelligenz in der Produktions- und Auftragssteuerung

Verwandte Beiträge