Suche begrenzen auf:
zurücksetzen

Data Analytics

Hype-Thema oder bereits gewinnbringend einsetzbar?
Big Data Machine Learning Data Analytics

Data Analytics und verwandte Begriffe wie Data Science, Machine Learning (dt. Maschinelles Lernen), Big Data und Artificial Intelligence (AI, dt. Künstliche Intelligenz) sind seit einiger Zeit in aller Munde. Wir alle kennen die Vorzeige-Use-Cases aus den Medien: AI wird benutzt, um Autos zu steuern und die weltbesten Schach- und Go-Spieler zu schlagen. Diese Use-Cases sind Fluch und Segen zugleich. Segen, da sie aufzeigen wie mächtig die Technologien sind; Fluch, da sie oft so losgelöst von den tatsächlichen Problemen in unserem Arbeitsalltag sind, dass am Ende nichts Konkretes rauskommt.


In diesem Artikel möchte ich deshalb aufzeigen, wie der Einsatz von Data Analytics Methoden und Technologien zu grossen Prozessvereinfachungen, Zeitgewinn und neuen Erkenntnissen führen kann. Dabei liegt der Fokus auf einem konkreten Beispiel und weniger auf einer umfassenden Abhandlung des Themas.

Use Case: Fehlende Verknüpfung zwischen Daten

Herausforderung:  
Infrastrukturanlagen werden in verschiedenen Systemen geführt (ERP, GIS/NIS, etc.); die technische und die finanzielle Sicht auf die Anlagen sind jedoch nicht miteinander verknüpft. Daraus resultiert eine fehlende Gesamtsicht auf die Anlagen. Ein effektives Asset Management, gute Netzberechnungen, das Netz-Monitoring und die Bewertung von Anschlussgesuchen sind auf dieser Basis nicht möglich. Auswertungen werden daher vielfach nur auf ganzen Anlagegruppen durchgeführt und Kennzahlen sind oft nur grobe Durchschnittswerte ohne die Möglichkeit, auf Anlageniveau zu gehen.


Das grösste Hindernis bei der Verknüpfung der technischen und finanziellen Sicht ist oft, dass der damit verbundene Aufwand sehr hoch ist: bei grösseren Betrieben kann die Durchführung dieser Verknüpfung von mehreren hundert bis zu tausend Personentagen dauern. Erschwerend hinzu kommt, dass diese Arbeit ein gewisses Datenverständnis voraussetzt und die entsprechenden Fachpersonen bereits gut ausgelastet sind.


Herangehensweise:
Bei einem schweizerischen Infrastrukturbetrieb trafen wir genau dieses Problem an. Mit Hilfe von Data-Analytics-Methoden konnten wir aufzeigen, dass das Problem einfacher und kostengünstiger zu lösen ist. Das wichtigste Prinzip in diesem Use Case ist, dass man nicht auf eine Alles-oder-nichts-Lösung setzt, die alle Spezialfälle mit einem Algorithmus abdecken muss. Vielmehr gilt es, die Stärken von Data Analytics mit den Stärken der Fachpersonen zu ergänzen. Sprich: der Algorithmus versucht die Daten der verschiedenen Datenbanken zu matchen. In Fällen, wo dies nicht eindeutig möglich ist oder die Datenqualität ungenügend ist, werden die voranalysierten und mit einer Shortlist von möglichen Matching-Partnern versehenen Daten an eine Fachperson weitergeleitet. Nun kann die Fachperson ihr Datenwissen und ihre Erfahrung einbringen, um die für den Algorithmus schwierigeren Fälle zu matchen. Die Zeitersparnis erfolgt dabei an zwei Stellen: einerseits müssen gewisse Daten nicht mehr durch Fachpersonen bearbeitet werden, andererseits erhöhen die Vorverarbeitung und Vorselektion von möglichen Matching-Partnern die Effizienz beim manuellen Matching.


Ablauf Data Analytics ©Eraneos Group AG
Ablauf Data Analytics ©Eraneos Group AG

Der beschriebene Ablauf wird in Abbildung 1 veranschaulicht. Auf der linken Seite ist das Data Analytics Tool im Einsatz und auf der rechten Seite kommen die Fachpersonen zum Zug. Der Data-Analytics-Teil umfasst zwei Schritte: das Pre-Processing und den eigentlichen Algorithmus. Im Pre-Processing werden die Daten aus den Systemen eingelesen, evtl. ergänzt mit Daten aus anderen Datenquellen und in das richtige Format gebracht. Dieser erste Schritt kann bereits sehr viel Arbeit abnehmen und ersetzt das manuelle Ziehen von Reports aus Systemen sowie das Umformatieren und Datenjonglieren in Excel.  


Der Matching-Algorithmus wurde mit Input von Fachpersonen erarbeitet. Wir haben dabei eine Mischung aus Geoanalyse und Natural Language Processing (NLP) eingesetzt. Letzteres ermöglicht, aus Freitextfeldern die wichtigen Informationen zu extrahieren, die für das Matching erforderlich sind.


Für die Verbesserung des Matching-Algorithmus mit mehr Logik und Wissen kann sehr viel Aufwand betrieben werden. Deshalb lohnt es sich, hier Aufwand/Nutzen-Überlegungen anzustellen. Bereits im ersten Anlauf haben wir in unserem Projekt sehr gute Zahlen erreicht. Wir haben je nach Anlagentyp rund 50-60% eindeutige Matches erzielt. Zusätzlich konnten wir 15-30% fast eindeutig matchen, d. h. wir hatten eine Shortlist mit wenigen «Kandidaten», die als Matching-Partner infrage kamen. Bei diesem manuellen Matching unterstützen wir die Fachperson mit einem grafischen Benutzerinterface, in welchem die Matching-Partner tabellarisch und, falls möglich, geografisch angezeigt werden. Dies erlaubt ein sehr zeitsparendes Arbeiten und führt zu einem enormen Effizienzgewinn.  


Der manuelle Aufwand hat sich mit dieser Vorgehensweise um einen Faktor von mehr als 3 verkleinert, in unserem Projekt führte das zu einer Kosteneinsparung von mehreren Hundertausend Franken – mit der ersten Version des Matching-Algorithmus. Wir werden diesen in einer bis zwei weiteren Iterationen noch etwas schärfen, um die Resultate weiter zu verbessern.

Weitere mögliche Anwendungen

Der aufgezeigte Use Case ist natürlich weit weniger spektakulär als eine schachspielende Künstliche Intelligenz (KI). Meiner Meinung nach braucht es die spektakulären Use Cases, um Aufmerksamkeit für das Thema zu erzeugen und neue Visionen anzustossen. Gleichermassen braucht es die weniger spektakulären Use Cases, um Akzeptanz und Verständnis dafür zu schaffen, was diese Methoden und Technologien konkret bewirken können.


Als Beispiel möchte ich hier ein paar Use Cases nennen, die bereits erfolgreich umgesetzt werden konnten:


  • Erstellung von Dashboards, um jederzeit die aktuellen KPIs und historischen Entwicklungen zur Hand zu haben und damit datengetriebene Entscheidungen zu fällen. Relevant für alle Bereiche, insbesondere für den Vertrieb und das Asset Management.
  • Parallel oder als Ergänzung zu einem Dashboard können direkt Analysen auf den Daten durchgeführt werden, um Entwicklungen und Muster zu erkennen und auf dieser Basis Prozesse anzupassen.
  • Analyse von bestehenden Betriebsdaten: beispielsweise liegen oft Störungsdaten von Störschreibern vor, die mit modernen Werkzeugen einfach zu analysieren sind. Daraus lassen sich Optimierungen für den Betrieb und das Asset Management ableiten.
  • Analyse von Zeitreihendaten und Erstellung von Prognosen mittels Machine Learning, z. B. für das Bilanzgruppen-Management oder für die Energieproduktion mit PV-Anlagen und Windturbinen.
Data Analytics: Hype-Thema oder bereits gewinnbringend einsetzbar? Lessons Learned

Ja, Sie haben bereits genug Daten, um Analysen durchzuführen!

Die allermeisten Betriebe haben bereits eine Datengrundlage, die gut genug ist, um mit einer Analyse zu beginnen. Es macht auch Sinn, zunächst das zu analysieren, was man bereits hat. Dadurch erkennt man die Möglichkeiten und kann das Data Capturing und die Formate entsprechend anpassen.

Icon

Infobox “Big Data”

Big Data bezeichnet eine grosse Menge an strukturierten und unstrukturierten Daten. Je mehr Daten vorhanden sind, desto einfacher lassen sich Unternehmensprozesse innovieren. Big Data ist die Grundlage für Machine Learning.

Es braucht kein grosses Datenplattform-Projekt, um mit Data Analytics zu starten!

Zentrale Datenplattformen machen Sinn. Sie sind aber keine Voraussetzung für Data Analytics. Mit Sicherheit haben auch Sie bereits interessante Daten, die Sie ohne zentrale Datenplattform nutzen können. Sofern die Daten noch nicht standardisiert sind, lässt sich dies mit dem oben beschriebenen Schritt (Pre-Processing) unkompliziert lösen. Sobald die ersten Use Cases erfolgreich umgesetzt sind, kommt automatisch der Hunger auf mehr und der Aufwand für eine Datenplattform lässt sich einfacher begründen.


Der Einbezug der Fachbereiche ist unerlässlich!

Um aus Daten gewinnbringende Informationen zu extrahieren braucht es zwingend Fachwissen und eine Idee, was man erreichen möchte. Die Data-Analytics-Expert*innen von Eraneos bringen viel Fachwissen in entsprechende Projekte ein. Doch wir agieren stets gemeinsam mit unseren Kunden. Indem wir Ihr spezifisches Fachwissen und Ihre Visionen einbeziehen, schaffen wir Data-Analytics-Lösungen, die Ihnen spürbaren Mehrwert bringen.


Ein gewisses Data Mindset ist oft vorhanden, während die Werkzeuge und das Verständnis für die Möglichkeiten fehlen

Wie viel Datenanalyse bereits durchgeführt wird, ist von Betrieb zu Betrieb sehr unterschiedlich. Abhängig ist dies unter anderem von der Grösse des Betriebs, der Datenaffinität der Mitarbeiter*innen und der Abteilung. Im Handel sind Datenanalysen beispielsweise schon lange etabliert. In der Praxis führen heute nahezu jeder Betrieb und jede Abteilung zumindest periodische Excel-Exporte durch, die zu Analysezwecken gefiltert oder pivotiert werden. Das Positive daran ist sicherlich, dass ein Grundverständnis vorhanden ist. Möglicherweise ist auch bereits eine Logik abgebildet. Mit den richtigen Werkzeugen lassen sich diese Prozesse mit wenig Aufwand effizienter und fehlerresistenter gestalten. So kann man beispielsweise mit einem BI-Tool die Exporte und die Logik abbilden und hat so jederzeit auf Knopfdruck die aktuellsten Auswertungen zur Hand.  


Erfolgreich ans Ziel: klein beginnen und in Iterationen denken!

Datenprojekte scheitern leider vielfach daran, dass man alles gleichzeitig von Grund auf lösen möchte. Deshalb bin ich grosser Anhänger von agilen Vorgehensweisen. Beginnen Sie mit Ihren bestehenden Daten. Sie brauchen vorgängig kein grosses Datenprojekt, um Data Analytics zu betreiben. Zu Beginn ist der gezielte Fokus auf die Produktivsetzung einer teilautomatisierten Lösung in den meisten Fällen erfolgversprechender als eine vollautomatisierte Lösung, die es nie bis in die Produktion schafft. Nachdem die Lösung produktiv ist, kann sie mit den Erkenntnissen aus der Anwendung angepasst und iterativ weiterentwickelt werden.  


Data Analytics und Big Data mögen neu sein. Doch bewährte Lebensweisheiten gelten auch in diesem Umfeld nach wie vor: «Das Bessere ist der Feind des Guten».

Wir verwenden Cookies, um Ihnen ein optimales Nutzererlebnis zu bieten. Durch die weitere Nutzung unserer Webseite stimmen Sie der Verwendung von Cookies zu. Konsultieren Sie bitte unsere Datenschutzerklärung, falls Sie mehr darüber erfahren möchten.