Der Limón Blog

Analysen, Berichte & Hintergründe zu Energieeffizienz und Klima

Automatisierte Anomalieerkennung- die Zukunft der Datenermittlung zur Effizienzsteigerung?

Klimaneutralität ist die Zukunft. Damit Unternehmen dies erreichen können sind eine Vielzahl von Analysen zur Effizienzsteigerung notwendig. Daten über Daten werden so täglich ermittelt, die manuell ausgewertet werden müssen. Aber wer soll das ganze auswerten? Wo bleibt da die Zeit für das eigentliche Geschäft? Eine moderne Lösung muss her.

Dieser Herausforderung hat sich ein Experten-Team von Limón in Zusammenarbeit mit der Universität Kassel angenommen. Das Ganze findet im Rahmen des Förderprogramms für Energiesparzähler des BAFAs statt. Was für interessante Ergebnisse dabei herausgekommen sind, erfahren Sie in dem heutigen Blog-Beitrag.

Was wird bei dieser Forschungsarbeit untersucht?

Im Rahmen des BAFA Förderprogramms für Einsparzähler, entwickelt die Limón GmbH zusammen mit der Universität in Kassel Algorithmen zur automatischen Analyse von Energiedaten bzw. Lastgangdaten. Durch automatisierte Anomalieerkennungen sollen Einsparpotenziale ausfindig gemacht werden. Um das zu untersuchen werden verschiedene Ansätze der Anomalieerkennung untersucht.

Welcher Mehrwert soll aus dieser Arbeit gezogen werden können?

Klimaschutz ist eine der wesentlichen Herausforderungen für die kommenden Jahrzehnte. Dabei spielen Unternehmen, vor allem im produzierenden Bereich, auf Grund ihres hohen Energieverbrauchs eine wesentliche Rolle. Gerade in den letzten Monaten ist daher ein Trend zur Klimaneutralität von Unternehmen entstanden. Da in den meisten Fällen die sogenannten „Low-Hanging-Fruits“ bereits realisiert wurden, muss nun tiefer in die Datenanalyse eingestiegen werden.

Die zunehmende Installation von Messtechnik für die verschiedenen Energiemedien in der Kombination mit Produktions- und Prozessdaten bieten dafür eine gute Basis. Allerdings erscheint auf Grund der hohen Anzahl an Daten mit guter Auflösung eine rein manuelle Auswertung auch auf Grund des hohen Zeitaufwands in Verbindung mit knappen Ressourcen nicht zeitgemäß. Eine automatisierte Erkennung von Potentialen kann hierbei helfen und den Zeitaufwand deutlich reduzieren.

Da heutzutage die Daten zu Lastgängen & Co meist noch manuell ausgewertet werden, entwickelt die Limón GmbH daher im Rahmen des Förderprogramms Einsparzähler des BAFA zusammen mit der Universität Kassel Algorithmen zur automatisierten Analyse von Energiedaten bzw. Lastgangdaten. So soll die veraltete und zeitaufwendige Vorgehensweise, denen heutige Unternehmen noch gegenüberstehen, modernisiert werden.

In dem vorliegenden Artikel werden dafür zwei Strategieansätze zur Anomalieerkennung auf ausgewählten Lastgangdaten angewendet, verglichen, sowie deren Erkennungsgüte evaluiert. Welche spannenden Ergebnisse dabei herausgekommen sind, erfahren Sie im heutigen Blogbeitrag.

Was verbirgt sich hinter der Anomalieerkennung?

Bei einer Anomalieerkennung handelt es sich um die Identifikation von ungewöhnlichen Datenpunkten bzw. Verläufen in Lastgängen. Diese ungewöhnlichen Datenpunkte lassen sich in mindestens 2 unterschiedlichen Typen einteilen. Die Punktanomalien und die Teilsequenzanomalien.

Die Punktanomalie

Bei einer Punktanomalie ist nur ein einzelner Zeitpunkt auffällig. Das heißt, dass er sich im Vergleich zu den anderen Werten in derselben Zeitreihe ungewöhnlich verhält. Dabei können Punktanomalien univariat oder multivariat sein. Eine univariate Punktanomalie stellt ein punktuell ungewöhnliches Verhalten von einer zeitabhängen Variablen dar. Multivariate Punktanomalien zeichnen sich durch abweichendes Verhalten mehrerer Variablen zum gleichen Zeitpunkt aus.

Die Teilsequenzanomalie

Diese Art von Anomalie bezieht sich auf das Verhalten einer Sequenz aufeinander folgender Zeitpunkte, die als ungewöhnlich erachtet werden. Zu beachten ist hierbei, dass nicht jeder Beobachtungzeitpunkt für sich notwendigerweise eine Punktanomalie darstellt.
Es besteht durchaus die Möglichkeit, dass Teilsequenzanomalien auch zeitabhängig in einer Dimension (univariate Teilsequenz) oder in mehreren Dimensionen (multivariate Teilsequenz) auftreten.

Wie werden Anomalien identifiziert?

Die zuvor beschriebenen Anomalietypen werden im Rahmen dieser Arbeit durch einen residuenbasierten Ansatz identifiziert. Dieser Ansatz lässt sich in 4 Schritte unterteilen. Die (1) Schätzung des Normalverhaltens, die (2) Residuenbildung, die (3) Schwellenwertprüfung und die (4) Quantifizierung der Anomalieerkennungsgüte.

(1) Schätzung des Normalverhaltens

Mit Hilfe der bekannten Daten eines Lastganges wird ein Regressionsmodell erstellt. Dieses Modell schätzt den typischen bzw. normalen Verlauf und die erhaltenden Erwartungswerte können im nächsten Schritt zur Residuenermittlung verwendet werden. Es kann zwischen dem Schätz- und dem Vorhersagemodelle unterschieden. Die begriffliche Unterscheidung von Schätzung und Vorhersage orientiert sich an Blázquez-García et al. (2020).

Bei Schätzmodellen werden zur Schätzung eines Erwartungswertes xt zurückliegende Daten (xt-k1 mit k1 ≥ 1), der aktuelle (xt) und dem Erwartungswert zeitlich nachfolgende Daten (xt+k2 mit k2 ≥ 1) verwendet. Im Vergleich dazu, werden bei Vorhersagemodellen nur zurückliegende Daten (von xt-k1 bis xt-1) genutzt. Dies hat das Ziel einen zeitlich darauffolgenden Erwartungswert ^xt zu bestimmen.

Im Rahmen des Projektes werden zwei unterschiedliche Schätzmodelle eingesetzt. Aus dem Bereich Machine Learning werden Long Short-Term Memory (LSTM, dt.: langes Kurzeitgedächtnis) Netzwerke verwendet. LSTM Netzwerke gehören zur Gruppe der Recurrent Neural Networks (RNNs, dt.: rekurrente bzw. rückgekoppelte neuronale Netze), stellen jedoch eine Weiterentwicklung der RNNs dar. Diese besitzen komplexer aufgebaute Neuronen, welche als Speicherblöcke bezeichnet werden. Dadurch ist es mit LSTM Netzwerken möglich in sequenziellen Daten, effektivere und langfristigere Abhängigkeiten zu berücksichtigen und zu erlernen.

Bei der Schätzung des normalen Verhaltens mittels LSTM Algorithmus, werden zwei Varianten verwendet. Entweder wird zur Bildung des Modells ein Zeitraum von einem Monat (1M) verwendet, oder das Modell wird mit Daten aus 3 Monaten (3M) ermittelt. Bei Ersterem entspricht der einem Monat (1M), dem Zeitraum, in dem Anomalien identifiziert werden sollen.

In der zweiten Variante werden zwei Vormonate und der auf Anomalien zu untersuchende Monat genutzt. Der wesentliche Vorteil des 3M-Modells gegenüber des 1M-Modells liegt darin, dass die zusätzliche Analyse die Gefahr verhindert, dass mögliche Anomalien im Modell geschätzt und damit verschleiert werden.

Die zweite Strategie basiert auf dem PEWMA (engl. Probalistic Exponential Weighted Moving Average) Verfahren und ist eine Glättungsmethode aus der Statistik, um bspw. Zeitreihen fortzuführen oder Unregelmäßigkeiten im Verlauf zu minimieren.  Durch den Glättungsparameter αp wird die Stärke der Glättung variiert und verschiedene Werte in Bezug auf eine bestmögliche Anomalieerkennung getestet.

(2) Die Residuenermittlung

Nachdem im ersten Schritt die Erwartungswerte gebildet wurden, werden im nächsten Schritt die Residuen ermittelt. Hierbei wird die Differenz zwischen den beobachteten Datenpunkt xt und zu erwarteten Wert ^xt gebildet. Die dabei entstandene Differenz erzeugt einen Einzelresiduenwert. Dadurch, dass im Vorfeld Schwellenwerte τ für die Einzelresiduenwerte festgelegt wurden, können diese nun auf Anomalität geprüft werden:

Es können zudem auch summierte Residuen berechnet werden. In dem Fall werden die Einzelresiduen bestimmter Sequenzlängen aufsummiert. Dabei gilt folgender mathematischen Zusammenhang:

Für die Auswertung werden die Teilsequenzen für die Längen zwei, vier, sechs, acht Stunden untersucht. Dabei handelt es sich jeweils um gleitende Sequenzfenster. Was bedeutet das? Nehmen wir an, dass wir für die Sequenzen eine Länge von vier Stunden gewählt haben. Dann werden zunächst die Werte von Stunde eins, zwei, drei und vier als erste Sequenz summiert und dann die von Stunde zwei, drei, vier und fünf als zweite Sequenz und so fort.

Ob nun Punktanomalien und Teilsequenzanomalien vorliegen, müssen im weiteren Schritt jeweils Einzelresiduen und summierte Residuen anhand eines definierten Schwellenwertes überprüft und im darauffolgenden Schritt beurteilt werden.

(3) Schwellenwertprüfung

Zur Festlegung und Überprüfung des Schwellenwertes werden zwei Ansätze verwendet. Der erste Ansatz (Z-Score Test) nutzt z-standardisierte Residuenwerte. Dabei wird für die Identifikation einer Anomalie die Grenzen bei dem bestimmten Vielfachem der Standardabweichung der Datenpunkte gesetzt. Der zweite Ansatz arbeitet mit dem generalisierten Extreme Studentized Deviate (ESD) Test. Über Signifikanzniveauwerte α und Anzahl der für den Test zu durchlaufenden Iteration k, ist es möglich Schwellenwerte zu definieren.

(4) Quantifizierung der Anomalieerkennungsgüte

Um die Güte von Verfahren zur Identifikation von Anomalien zu quantifizieren, werden üblicherweise folgende drei Metriken verwendet: die Genauigkeit (P, engl. Precision), die Trefferquote (R, engl. Recall) und das F1-Maß. Alle Metriken liegen im Wertebereich 0 und 1. Um Diese anwenden zu können, ist es notwendig die Anzahl an Datenpunkten zu kennen, welche von der Anomalieerkennungsmethode als anomal oder normal klassifiziert wurden.

Des Weiteren muss die Grundgesamtheit an vorhandenen Anomalien im Datensatz bekannt sein. Dadurch lassen sich 4 Fälle ableiten, die bei der Analyse der Ergebnisse einer Anomalieerkennungsmethode auftreten können. Sie lassen sich in einer sogenannten Konfusionsmatrix, siehe Tabelle 1, darstellen.

Tabelle 1: Konfusionsmatrix zur Analyse der Klassifikationen einer Anomalieerkennungsmethode

 

 

Klassifikation als Anomalie durch die Erkennungsmethode

 

 

Ja

Nein

Tatsächlich vorhandene Anomalie

Ja

Richtig positiv

Falsch negativ

Nein

Falsch positiv

Richtig negativ

 

Die Genauigkeit P ist definiert als die Anzahl der richtig positiven (tp, engl. true positive) Ergebnisse geteilt durch die Summe aus tp und der Anzahl an falsch positiven (fp, eng. false positive) Ergebnissen.

P = tp / (tp + fp)

Die Trefferquote R beschreibt das Verhältnis von tp zur Summe aus tp und falsch negativer (fn, engl. false negative) Ergebnisse.

R = tp / (tp + fn)

Dass F1-Maß, berücksichtigt sowohl Genauigkeit als auch Trefferquote und ist wie folgt definiert:

F1 = 2 ∙ P ∙ R / (P + R)

Ein hohes F1-Maß resultiert ausschließlich, wenn P und R hohe Werte annehmen.

Wie können diese Verfahren im Betriebsalltag genutzt werden?

Datenmaterial & Auswahl prototypischer Lastgänge zur Anomalieerkennung

Die Limón GmbH hat in den letzten 10 Jahren Daten in Form von Lastgängen mehreren hundert Unternehmen auswerten können. Dieses Gesamtmaterial wurde über die Gruppierung unter Verwendung des k-Means Clusterverfahren auf fünf prototypische Lastgangverläufe reduziert. Die zwei Strategieansätze werden anhand dieser 5 Unternehmen untersucht. Im Vorfeld der Auswertung wurden die zu untersuchenden Unternehmen auf anomale Verläufe hin untersucht.

Das Ganze fand in Form von Experteninterviews statt. So konnten bereits zu Beginn Anomalien vordefiniert werden, welche im Folgenden auch als Referenzenanomalien bezeichnet werden. Mit Hilfe der Referenzanomalien lassen die 3 zuvor beschriebenen Metriken anwenden.

Die zwei Strategieansätze in der Praxis

Zusammenfassend werden die zwei Strategien zur Anomalieerkennung in den ausgewählten Lastgangdaten untersucht. Auf die Schätzung mittels der zwei unterschiedlichen Strategien folgt die Untersuchung der Einzel- und Teilsequenzresiduen zur Identifikation von Punkt- und Teilsequenzanomalien mittels Schwellenwertprüfung durch Z-Score- und ESD-Test.

Im Rahmen dieser Arbeit wurden diverse Forschungsfragen aufgestellt. Detaillierte Ergebnisse zu den Fragen finden sich der Publikation und werden exemplarisch hier präsentiert. Was für Antworten dabei herausgekommen sind, erfahren Sie jetzt.

Forschungsfrage: Hängt die Güte der Anomalieerkennung von den spezifischen Lastgangverläufen einzelner Unternehmen ab?

Es lässt sich grundlegend feststellen, dass die vordefinierten Anomalien der ersten vier prototypischen Unternehmen sich als zeitlich kontextuale Anomalien beschreiben lassen. Das liegt daran, dass die Lastgänge einem zeitlichen Rhythmus, d.h. dass Tag-Nacht-, Werktag-Wochenende-, Feiertag-Abhängigkeiten, folgen, und ungewöhnliche Verläufe im Kontext des betreffenden Zeitpunktes existieren.

Für jeden Lastgang sind grundlegend die Daten bestehend aus dem Zeitstempel und dem zugehörigen Leistungswert bekannt. Daraus lassen sich Einflussvariablen generieren, welche die zuvor genannten zeitlichen Rhythmen quantifizierbar und insbesondere für das LSTM Netzwerk lesbar machen. Damit ist es möglich eine Schätzung durchzuführen, welche die zeitlichen Rhythmen prinzipiell nachbilden kann.

In der Praxis stellt sich heraus, dass teilweise nicht anomale Leistungsspitzen oder steile Leistungsflanken am Beginn und am Ende von Kernarbeitszeiten als falsch positiv zugeordnete Anomalien erkannt werden, da an diesen Stellen die Schätzung des LSTM Netzwerkes von den beobachteten Daten übermäßig abweicht. Durch viele falsch positive Ergebnisse kann, die Genauigkeit P oder das F1-Maß sehr niedrig ausfallen, obwohl die Referenzanomalien z.T. bis ganz wiedererkennt werden, d.h. hohe Recall Werte existent sind.

Es wird angestrebt in weiteren Studien die Schätzung mittels LSTM dahingehend zu optimieren, dass die falsch positiven Zuordnungen minimiert werden können. Jedoch kann die auf dem LSTM Netzwerk basierende Strategie bei den ersten vier Unternehmen deutlich effizienter Anomalien erkennen als Strategie 2.

Das fünfte Unternehmen unterliegt keiner dieser Abhängigkeiten. Die hier vordefinierten Anomalien lassen sich nur im Kontext des Gesamtverlaufes sehen, sodass ungewöhnliche maximale Leistungswerte als Referenzanomalien definiert werden. Sowohl unter Verwendung von Strategie 1 als auch von Strategie 2 zeigen sich hierbei ähnliche Ergebnisse.

Für das LSTM Netzwerk ist die Schätzung auf der Basis der Informationen aus dem Zeitstempel herausfordernd, da diese den Lastgangverlauf kaum beeinflussen. Es gibt wahrscheinlich für diese Auswertung nicht weiter bekannte Einflussvariablen. Für Strategie 2 lässt sich schlussfolgern, dass je höher der Anteil an ungewöhnliche Leistungsspitzen bzw. -abfällen ausschließlich im Kontext des Gesamtverlaufes ist, desto höher die Anomalieerkennungsgüte.

Forschungsfrage: Welche Auswirkung hat die Länge des Zeitraums der zur Schätzung eines LSTM Modells herangezogenen Daten (1M vs. 3M) auf die Güte der Anomalieerkennung?

Die Ergebnisse zeigen, dass die Güte der Anomalieerkennung mit Variante 3M zunimmt. Diese Ergebnisse wurden erwartet, da je länger der Zeitraum ist, welcher zur Bildung des Modells verwendet wird, desto eher werden seltene bis einmalige anomale Verläufe in der Modellbildung nicht mit einbezogen. Damit können die ungewöhnlichen Verläufe besser erkannt werden. Es lässt sich vermuten, dass die Verwendung von deutlich längeren Zeiträumen zur Bildung des LSTM Modelles dazu dienen könnte, die Anomalieerkennungsgüte zu verbessern.

Fazit und Ausblick

Um die Eingangs aufgestellten Fragen zu beantworten, lässt sich feststellen, dass eine Anwendung von automatisierten Anomalieerkennungsverfahren den Suchbereich bei teilweise mehreren hundert Lastgängen in einem Unternehmen deutlich einschränken kann. Automatisierte Erkennungsverfahren reduzieren somit den Aufwand im Vergleich zu einer manuellen Analyse.

Die Entwicklung und Auswertung der Strategieansätze hat weiterhin gezeigt, dass der Ansatz, allein mittels Informationen aus Zeitstempel und den zugehörigen Leistungswerten Anomalien identifizieren zu können, mindestens ambitioniert ist. Tatsächlich wird ein Lastgangverlauf potenziell von vielen Faktoren beeinflusst. Daher könnten höhere Anomalieerkennungsgüten erreicht werden, indem weitere auf die Leistungswerte wirkende Faktoren in die Schätzungsmodelle integriert werden.

Eine ausführliche Darstellung der hier im Blog aufgezeigten Forschungsarbeit findet sich im "Open Journal of Energy Efficiency".

Zur Publikation