Datenanalyse ist eine der wichtigsten Kompetenzen, wenn es darum geht, den Erkenntnisgewinn zu steigern und Wettbewerbsvorteile auszubauen. Von einer konkreten Fragestellung bis zur Darstellung eines aussagekräftigen Ergebnisses ist es jedoch ein weiter Weg.
Elektromobilität ist ein wichtiger Meilenstein auf dem Weg zur Energiewende, zur Unabhängigkeit von fossilen Rohstoffen sowie für die Reduktion der CO²-Belastung.
Bereits 2035 will/muss ein Grossteil der Hersteller in Europa nur noch Stromer anbieten. Und die Schweizer Käufer gehen schon jetzt vorweg: In diesem Jahr machen reine Elektroautos bisher mehr als 16 Prozent (Stand Ende Oktober) der hiesigen Neuwagenverkäufe aus – noch 2019 waren es nur verschwindende 1,8 Prozent!
Folglich wird auch die Nachfrage nach Ladestationen und damit verbundenen Dienstleistungen weiter steigen. Besonders in Bezug auf Dienstleistungen bedarf es verstärkt IT-Know-how, da die Aufgaben eines Ladeparkbetreibers sich nicht nur auf das Anbieten von Ladesäulen und Steuerungssystemen beschränken. Die im Einsatz befindlichen Ladestationen kommunizieren mit einem zentralen System, in dem andere Komponenten wie zum Beispiel Solarmodule, Kühlmodule und Abrechnungssysteme eingebunden sind.
Um den reibungslosen Betrieb eines Ladeparks zu gewährleisten, muss solch ein komplexes System, inklusive seiner Prozesse, überwacht werden. Dabei helfen nicht nur Berichte und Warnsysteme sondern auch Komponenten die veränderliche Größen, wie etwa die Auslastung und Nachfrage, analysieren und prognostizieren (Predictive Analytics). Solche Vorhersagen ebnen den Weg für intelligente Wartungsdienstleistungen und Infrastrukturen wie etwa das Smart Grid, ein intelligentes Stromnetz, welches sich an die aktuelle Nachfrage optimal anpasst und gleichzeitig Netzstabilität gewährleistet. Des Weiteren können Auffälligkeiten, zum Beispiel Ausfälle mittels intelligenter Analysen ebenso identifiziert werden wie ein Betrug oder Diebstahl. Dafür benötigt es Daten in Echtzeit, sowie die stärkere Vernetzung und Reaktivität von Systemen und die verständliche, nutzer-zentrierte Darstellung von Daten. Durch diese Herangehensweise erhofft man sich den beliebten Wettbewerbsvorteil.
Der Prozess startet bei der Datenakquise und –speicherung. Hier müssen bereits Fragestellungen und Anforderungen definiert sein, um passende Entscheidungen über die Datenqualität und Datenmenge zu treffen. Danach gilt es zu überlegen, über welche Kanäle die Daten zur Analyse zusammengeführt werden und welche Data Stores zur temporären oder persistenten Speicherung benötigt werden. Daten aus verschiedenen Quellen müssen je nach Art in ein einheitliches Format umgewandelt werden. Über Dimension – Modelling können nun Daten extrahiert werden, die sich potenziell eignen, um gegebene Fragestellungen zu beantworten. Hat man diese ermittelt, können schließlich verschiedene Berechnungen auf den Werten durchgeführt werden. Es beginnt die Analyse der Daten. Die Möglichkeiten hierfür sind riesig, um euch aber einen kleinen Einblick zu gewähren wähle ich als Beispiel die vier Typen Analyse nach Ganter. Im folgenden Schema dargestellt, lassen sich die vier Analysestufen anhand zweier Dimensionen unterscheiden. Hinsichtlich ihrer Aussagekraft und wie gut sie eintretende Ereignisse erkennen und vorhersagen können.
Im Klartext haben wir in der einen Dimension das Monitoring– und die Reporting-Methoden, um Ist- und Sollzustände zu vergleichen und Kennzahlen auf Basis bereits gewonnener Daten zu erstellen. In der zweiten Dimension steht ganz klar unser Predictive Analytics. Dies beschäftigt sich vielmehr mit der Vorhersage von Ereignissen sowie der Identifikation von Gründen, Zusammenhängen oder auch den Konsequenzen von Ereignissen. Einfach gesagt die Maschine interpretiert ihre Daten selbst. Angenommen ein Unternehmen benötigt für seine Angestellten 1000 Ladestationen und alle Elektroautos würden zwischen 7:00Uhr und 9:00 Uhr Morgens das Laden beginnen, so entspräche die benötigte Ladeleistung dem eines kleinen Kraftwerks. Ihr könnt euch denken das wäre in der Umsetzung äusserst teuer und nicht wirklich skalierbar. Wenn unsere, nennen wir sie mal KI, ein Muster bei den einzelnen Nutzern*innen erkennen würde, sähe das schon anders aus. Es merkt sich, dass Herr Maier mit seinem E-Auto immer um 8:00Uhr kommt und 8 Stunden bleibt. Auch hat es gelernt wieviel Energie dem Äquivalent seines Arbeitsweges entspricht und welche Rolle Temperaturen spielen. Frau Sonnenschein kommt halb neun und bleibt aber in der Regel nur 4 Stunden und die Poolfahrzeuge stehen Nachts meistens hier. Das System priorisiert nun die Ladevorgänge selbständig und verteilt zunächst nur die absolut notwendige Menge an Energie, die jeder für das Pendeln benötigt. Wenn danach noch Zeit und Energie übrig sind wird das System die Batterien weiter aufladen. Weiter unterstützt die KI wenn es darum geht Kosten für den Betreiber gering zu halten. Das System kann aus den historischen Daten die Störungen der Ladestationen analysieren und dementsprechend Wartungspläne simulieren, um die Fehlerhäufigkeit zu minimieren.
Ihr seht, hier steckt noch viel Potential drin. Mit der Vielzahl an verfügbaren Analysetools ist man vielleicht ganz gut aufgestellt, doch am wichtigsten ist ein passendes Team, das ausreichend Know-how zu allen Aspekten der Datenanalyse mitbringt.