Data Analytics
Effektive Datenanalysen sind der entscheidende Werttreiber im Kontext von Industrie 4.0 und Smart Factory. Erst wenn es gelingt, Big Data, also die enormen Datenmengen, die in IoT-Umgebungen entstehen, so zu aggregieren und zu analysieren, dass sie ergebniswirksam genutzt werden, bekommen sie einen tatsächlichen Wert. Moderne Data Analytics Methoden ermöglichen erstmals, völlig unstrukturierte Daten in Echtzeit zu analysieren und dabei die zu analysierende Datenstruktur jederzeit schnell zu verändern – wozu ERP-Systeme und relationale Datenbanken bislang nicht in der Lage waren. Dabei sind verschiedene Ansätze möglich:
- Wenn Daten intelligent analysiert und genutzt werden, ermöglichen sie nicht nur beschleunigte und präzisere Entscheidungsprozesse, sondern auch eine vorausschauende Planung und Wartung (Advanced Analytics, Predictive Planning und Predictive Maintenance). Sie helfen somit sowohl bei der Entwicklung und Steuerung der Strategie als auch bei der kontinuierlichen Optimierung operativer Prozesse – etwa durch die Reduktion von Betriebs- und Qualitätskosten. Datenanalysen bieten auch die Basis dafür, dass Kundenanforderungen und -entscheidungen besser und früher verstanden werden, was in einer höheren Reaktionsfähigkeit, besseren Datenqualität und Wettbewerbsvorteilen mündet.
- Durch die Kombination von Datenanalysen mit lernenden Systemen können Prozesse umfassend automatisiert werden. Besondere Potenziale bietet dabei der Aufbau von digitalen Zwillingen (Digital Twins), virtuellen Modellen, die Objekte und Prozesse vollständig in Echtzeit abbilden und vernetzen und dadurch hohe Transparenz und genaue Prognosen über Optimierungsmöglichkeiten und Risiken erlauben. Darüber hinaus kann dabei mittels Advanced-Analytics-Tools eine enorme Anzahl an potenziellen Korrelationen getestet und analysiert werden, was ein wesentlich tieferes und genaueres Verständnis der Kernprozesse ermöglicht.
- Durch Erweiterung mit Sensorik und Software können intelligente Produkte und Dienste (Smart Products & Services) aufgebaut und im Rahmen neuer Geschäftsmodelle zusätzliche Erlöse generiert werden. Auch das Retrofitting von Anlagen & Prozessen wird zunehmend wirtschaftlicher, je besser die Daten genutzt werden. Entscheidend ist dabei, dass umfassende Analysen verschiedener Prozesse, Komponenten und Fertigungssysteme so nah wie möglich an der Datenquelle erfolgt. Dadurch werden Steuerungs- und Interventionsprozesse beschleunigt und gleichzeitig das globale IT- und Prozessnetzwerk durch dezentrale Analyse- und Überwachungskreise entlastet. Dabei kommen sowohl Embedded Analytics zum Einsatz, bei denen Aktionen automatisiert von den IoT-Systemen ausgeführt werden, als auch Big Data Analytics, bei denen Eingriffe zugelassen werden und durch Veränderungen von Algorithmen unterschiedliche Sichtweisen analysiert werden können.
Verschenkte Potenziale bei Nutzung von Big Data und Data Analytics
Trotz dieser enormen Potenziale weisen viele Unternehmen nach wie vor einen geringen Reifegrad im Hinblick auf die Nutzung von Big Data und Data Analytics auf. Die häufigsten Gründe sind isolierte Datensilos, schlechte Datenqualität, das Fehlen ausreichender Datenmengen, oder Strukturen, die kein ganzheitliches, funktions- und bereichsübergreifendes Datenmanagement ermöglichen. Auch fehlen in vielen Unternehmen Kompetenzen und Kompetenzträger, um Datenanalyse als eine zentrale Querschnittsdisziplin zu etablieren und in strategische und operative Prozesse einzubinden.
ROI-EFESO unterstützt seine Klienten bei Big Data und Data Analytics Projekten, von der Analyse über die Planung bis zur Umsetzung mit kompetenten und praxiserfahrenen Fertigungs- und Strategieexpert:innen, Data Engineers und Data Scientists, um die wirtschaftlichen und prozessualen Potentiale von Daten zu heben. Dabei orientieren sich die Berater:innen von ROI-EFESO an einem Vorgehensmodell, das modular an die individuellen Herausforderungen angepasst wird und anhand von sechs zentralen Kriterien (6 V‘s) konkretisiert wird:
Vorgehensmodell anhand von sechs zentralen Kriterien
Ablauf eines Big Data Projekts
Phase 1: Zielvektor
Der richtige Umgang mit Big Data leitet sich aus der Unternehmensstrategie, heutigen und möglichen Geschäftsmodellen sowie den gewünschten Use Cases ab:
-
Welche übergeordnete Zielstellung soll erreicht werden?
-
Welchen Beitrag kann Big Data zur Unternehmensstrategie leisten?
-
Welchen Beitrag kann Big Data für die Prozessoptimierung leisten?
-
Sind neue Geschäftsmodelle dadurch möglich?
-
Welche Use-Cases bringen einen sofortigen Benefit?
Typische Use Cases sind hierbei:
-
Unterstützung von Produktstrategien
-
Erhöhung der Auslastung einzelner Standorte/Anlagen
-
Reduktion Teiletourismus
-
Gesamtoptimum aus Produktions- und Supply-Chain-Kosten
-
Verbesserung der Lieferzeit und -geschwindigkeit
-
Verbesserung der Produktionsverfügbarkeit durch Predictive Maintenance
-
Verbesserung in der globalen Zusammenarbeit (Engineering, Produktion, Logistik)
-
Grundlagen für Smart Products ermitteln
-
Entscheidungsplattform für neue Geschäftsmodelle schaffen
Phase 2: Smart Data Architektur
In einer zweiten Phase wird die erforderliche Architektur für die Umsetzung der Big Data Use Cases erstellt. Je nach Use Case sind in unterschiedlichem Maß auch prozessuale und organisatorische Veränderungen vorzunehmen, die ebenso zu planen sind wie die technologische Architektur. Im Fokus stehen u.a. folgende architektonische Fragestellungen:
-
Wo besteht das Erfordernis zum Aufbau eines Digital Twin?
-
Welche Rolle spielen Cloud Services? Welche Operationen sind in Edge Devices durchzuführen?
-
Welches Maß an Analytikkompetenz ist inhouse erforderlich?
-
Müssen Anlagen digital nachgerüstet werden (Retrofit)?
-
Welche (Cyber)Security Anforderungen sind zu berücksichtigen?
-
Wie müssen die Prozesse entsprechend den Use Cases ausgestaltet werden?
-
Wie müssen IT- und Managementsysteme verändert werden?
-
Ist die Aufbauorganisation anzupassen?
Phase 3: Proof of Concept
Der erste Schritt vor dem Rollout ist der Proof of Concept eines oder mehrerer ausgewählter Use Cases. Eine erste Verifikation der entsprechenden Analysemodelle wird in der Regel mittels eines Digitalen Zwillings durchgeführt. Mit dieser Methode können entkoppelt vom produktiven Betrieb bereits verbindliche Ergebnisse auf Basis von Produktivdaten erzielt und erforderliche Anpassungen vorgenommen werden. Nach Sichtung der Ergebnisse wird eine Entscheidung über den produktiven Einsatz getroffen. Alle erforderlichen Datenschnittstellen und IT-Services sind im Digitalen Zwilling erprobt und erlauben eine problemlose Integration in den produktiven Betrieb.
Phase 4: Aufbau des Smart Data Cluster
Nach erfolgreichem Proof of Concept der Use Cases wird das Big Data Cluster aufgebaut und von der PoC-Architektur in eine Produktivarchitektur überführt. Diese Phase beinhaltet sowohl die Erstellung der ETL-/ELT-Prozesse, die Implementierung der Algorithmik sowie die Einrichtung der Visualisierungen und des Frontends für die Endnutzer:innen.
Phase 5: Überführung in service-orientierte Cloud
Ist der Data Cluster produktiv, besteht der nächste Schritt darin, auf Grundlage eines Betriebsmodells den Betrieb an einen Service-Provider zu übergeben sowie smarte Devices anzubinden und in den Data Lake zu integrieren. Endergebnis ist eine Data-as-a-Service (DaaS), bzw. Analytics-as-a-Service (AaaS)-Lösung, die IT-Services konsequent bedarfsorientiert zur Verfügung stellt.
Phase 6: Weiterentwicklung in Collaborative Cloud
Die Weiterentwicklung und Entwicklung zusätzlicher Services erfolgt in einer Collaborative Cloud, die intern wie auch externen Entwickler:innen die Möglichkeit gibt, ihre Entwicklungsdienstleistungen app-basiert einzubringen und weitere Services zur Verfügung zu stellen.
Darstellung der einzelnen Phasen zur Umsetzung einer evaluierten Big Data Strategie
Prozessverbesserung durch Einsatz von Big Data
- Fraud Detection: Überwachung von Datenströmen innerhalb von Produktionsnetzwerken mit Detection von Anomalien in Echtzeit
- Mustererkennung: Optimierung von Arbeitswegen anhand der Analyse von Bewegungsmustern
- Condition Monitoring: Analyse von Aggregatszuständen der Produktionssysteme (mit Kopplung zu Mobile Devices)
- Fertigungsmonitoring: Überwachung von Umgebungsvariablen in der Produktion in Echtzeit mit Detektion von Anomalien (z.B. für thermosensitive Produktionen)
- OEE-Monitoring: Visualisierung der KPI (z.B. OEE) von Anlagen, Fertigungsbereichen und Werken auf Basis von erfassten Daten mit nutzerspezifischer Aggregation
- Predictive Quality: Qualitätsoptimale Planung und Steuerung auf Basis von Einflussgrößen auf die Qualität (auch mit Rückkopplung in die Produkt- und Prozessentwicklung) und Erkennung von Mustern in Fertigungsabweichungen
- Predictive Maintenance: Optimale Planung von Instandhaltungsaufträgen basierend auf Verschleißmodellen (mit optimaler Einsatzplanung des Instandhaltungspersonals)
- Modell-prädikative Regelung: Optimale Planung und Steuerung von Fertigungsanlagen, -bereichen oder Werksverbünde in Echtzeit
- Simulationsbasierte Optimierung: Optimierung von Planungs- und Steuerungsprozessen basierend auf Simulationsmodellen, z.B. optimale Auftragsreihenfolge der Fertigung, optimaler Kapazitätsausgleich im Werksverbund
- Logistik Optimierung: Optimierung von Warenfluss auf Basis von Geodaten, Verkehrsfluss und Wetterdaten. (z.B. Just in Time / Just in Sequence Lieferungen) & Optimierung von Stell- und Bereitstellungsflächen (z.B. optimierte Koordinierung von Warenbewegungen durch Echtzeiterfassung)
Ablauf eines Data Analytics Projekts
Phase 1: Verständnis für Prozesse und Daten
Zu Beginn des Projekts wird das Verständnis für die zugrundeliegenden Prozesse und vorhandenen Datenstrukturen geschaffen, um sowohl das Mengengerüst an Datenquellen, -typen und -volumina zu verstehen, als auch deren Bedeutung in den Geschäftsprozessen.
Phase 2: Analyse vorhandener Daten und Prädiktionsmodell
Sofern die erforderlichen Daten bereits in ausreichender Qualität vorliegen und zugänglich sind, wird ein erster Proof-of-Concept vorgenommen – entweder mit offline-Daten oder in einer Testumgebung. Erste Hypothesen werden erstellt, und in einem zweiten Schritt durch Analyse vorhandener Daten überprüft. Falls keine Muster in den vorhandenen Daten zu erkennen sind, ist entweder der Scope zu erweitern oder ein Retrofit durchzuführen, um zusätzliche Daten aus den vorhandenen Prozessen zu gewinnen. Im Anschluss wird das Prädiktionsmodell mit relevanten Features erstellt und die Prognosegüte mittels historischer Daten validiert.
Phase 3: Roll-out des Modells
Bei ausreichender Prognosegüte wird der Proof-of-Concept in eine Produktivumgebung übertragen. Die erforderlichen ETL-/ELT-Prozesse zur automatisierten Bereitstellung und Aufbereitung der Daten werden aufgesetzt und in die vorhandene IT-Landschaft integriert. Im Anschluss werden Frontend und Reportprozesse für Endnutzer:innen angelegt bevor der Go-Live des Systems erfolgt und eine Validierung im realen Umfeld durchgeführt wird. Das Projekt endet mit Übergabe der Dokumentation und Schulung der Nutzer:innen und Expert:innen.
Predictive Analytics Vorgehen
Künstliche Intelligenz (KI)
Mittels künstlicher Intelligenz (KI) lassen sich auf Basis von Big Data lassen sich Muster in großen Datenmengen wesentlich schneller und genauer ermitteln, als dies der Mensch könnte. Derzeit unterscheidet man dabei zwei Kategorien von KI:
- Schwache KI: Beschäftigt sich mit konkreten, oft klar begrenzten Anwendungsproblemen. Beispiele sind etwa Services wie Siri, Alexa, Bixby, aber auch erste Steuerungen von Fahrzeugen mittels Spracheingabe.
- Starke KI: Lösungen sind in der Lage über konkrete Aufgabenstellungen hinaus eigenständig Situationen zu erfassen, zu analysieren und eine Lösung zu erarbeiten.
Unter dem Begriff der KI werden zahlreiche Methoden zusammengefasst, die in Analytics- und Big-Data Projekten angewandt werden. ROI-EFESO nutzt in Big Data Analytics-Projekten problemspezifische state-of-the-art Methoden. Dies umfasst:
- Natural Language Processing (NLP) umfasst Methoden zur Spracherkennung und -generierung. Bekannte Anwendungen sind interaktive Fahrzeugnavigationsgeräte oder Consumer Anwendungen wie Alexa und Siri.
- Insbesondere im Service-Umfeld werden NLP-Methoden mit Bots kombiniert und zunehmend als interaktive Chatbots eingesetzt.
- Eine der traditionellen Disziplinen der KI ist der Bereich der Bildverarbeitung und -erkennung (Computer Vision), da Methoden der Mustererkennung sowie des maschinellen Lernens angewandt werden. Auch Verfahren der mathematischen Optimierung komplexer Systeme werden unter dem Begriff der KI zusammengefasst (z.B. Genetische Algorithmen, Simulated Annealing).
- Das maschinelle Lernen (machine learning) wird mittlerweile häufig stellvertretend für KI genannt. Dabei stellt der Begriff einen Sammelbegriff für Verfahren zur Generierung von Wissen aus Erfahrung dar. Auch Kombinationen mathematischer Optimierungen mit maschinellen Lernen sind üblich.
- Das Deep Learning beispielsweise umfasst Methoden zur Optimierung künstlicher neuronaler Netze, die sehr häufig im maschinellen Lernen angewandt werden.
- Weitere Ansätze der schwachen KI sind wissensbasierte Systeme und Expertensysteme, die vorhandenes Wissen formalisieren (z.B. maschinelle Übersetzungsprogramme).
- Klassische menschliche Planungsaufgaben wie das Suchen und Planen können mittels Algorithmen der KI unterstützt und automatisiert werden. Etablierte Verfahren hierbei sind mathematische Algorithmen wie nearest-neighbor oder maximum likelihood, die für Kürzeste-Wege-Suchaufgaben oder Ablaufplanungsprobleme angewandt werden.
Künstliche Intelligenz als Sammelbegriff