Digitaler Zwilling der Verteilnetze: Best Practices und erste Schritte

Im ersten Teil unserer Mini-Reihe zu digitalen Zwillingen im Energiesektor haben wir uns mit der aktuellen Lage rund um die Stromverteilstromnetze auseinandergesetzt, während es im zweiten Teil um das Potenzial der Digital-Twin-Technologie für die Gewährleistung eines sicheren Netzbetriebs auch in den Zeiten starker Wachstumsraten bei der Stromerzeugung aus erneuerbaren Energien sowie des Fachkräftemangels ging. Nun lassen wir uns etwas konkreter werden.

Wir haben mit unseren Fachexperten gesprochen, die Verteilnetzbetreiber in ganz Europa auf dem Weg zur Digitalisierung ihrer Stromnetze begleiten, um praktische Tipps und Empfehlungen zu sammeln. Ganz konkret wollten wir wissen: Womit starte ich als Netzbetreiber, wenn ich einen digitalen Zwilling meiner Verteilnetze erstellen will? Welche Daten spielen dabei eine wichtige Rolle und wie hoch muss die Qualität dieser Daten sein? Was sind die einzelnen Schritte zu einem rechenfähigen Abbild der Netze?

Ihre Antworten wollen wir nun mit Ihnen im dritten und letzten Teil dieser Serie teilen.

Digital-Twin-Technologie: unterschiedliche Einsatzbereiche

Die Digital-Twin-Technologie kann grundsätzlich zu unterschiedlichen Zwecken eingesetzt werden. Ganz konkret haben wir im Energiesektor bislang drei Hauptrichtungen beobachtet:

  • Digitale Kopien der einzelnen Assets
  • Digitale Abbildungen der Netzinfrastruktur
  • Virtuelle Kopien der Netze zusammen mit den Netzteilnehmern

Der erste Einsatzbereich fokussiert sich hauptsächlich auf die Zustandsüberwachung und vorausschauende Wartung einzelner Betriebsmittel, zum Beispiel Transformatoren. Die virtuelle Kopie sammelt dabei Daten u.a. von den einzelnen Sensoren, um gewisse Vorgänge nachzubilden. So kann beispielsweise aus der Ferne überwacht werden, wann ein Risiko besteht, dass das Öl im Transformator zu warm wird und somit die Funktion des Assets zu beeinträchtigen droht.

Im zweiten Fall können mithilfe eines digitalen Zwillings konkrete Baumaßnahmen geplant werden. Die Digital-Twin-Technologie dient dabei dazu, ganze Straßenzüge oder Waldflächen in den Gebieten, wo zum Beispiel die Errichtung einer neuen Stromleitung geplant wurde, digital zu modellieren. Das ermöglicht eine effizientere Bauplanung und hilft dabei, Kosten sowie Risiken noch in der sehr frühen Phase präziser zu ermitteln.

Die dritte Hauptrichtung betrifft genau den Einsatzbereich, mit dem wir uns im Folgenden im Detail beschäftigen. Diese Art der digitalen Zwillinge wird zur Optimierung des Netzbetriebs und Erleichterung der sowohl kurz- und langfristigen Netzplanung eingesetzt.

Wie erstelle ich einen digitalen Zwilling meiner Verteilnetze?

Schritt #1: Daten sammeln

Heutzutage kann man getrost behaupten, dass alles mit den Daten anfängt. Auch für die Erstellung eines rechenfähigen Netzmodells (= digitalen Zwillings) beginnt jede Vorarbeit mit der Datenerhebung.

Welche Daten braucht man für einen digitalen Zwilling der Verteilnetze?

Ganz konkret in Bezug auf die Verteilnetze geht es um die Informationen, die uns helfen zu verstehen, was im Netz passiert und an welchen Stellen Handlungsbedarf – zum Beispiel Verstärkungsmaßnahmen – besteht.

Solche Daten unterteilen wir in drei Hauptkategorien:

  • Netztopologie in Verbindung mit Geo-Daten
  • Betriebsmittelbezogene Daten
  • Informationen über die Netzteilnehmer

Es beginnt mit einer exakten virtuellen Nachbildung der geographischen Stromnetzparameter, bleibt jedoch nicht nur dabei. Genauso wichtig ist es, digital die Netztopologie festzuhalten, d.h. wie genau (beziehungsweise an welchen Stellen) die verschiedenen Bereiche des Netzes miteinander verschaltet ist. Dies umfasst typischerweise sowohl die aktuelle Netztopologie als auch den Normalschaltzustand.

Wo kommen die Daten für einen digitalen Zwilling der Stromnetze her?

Grundsätzlich kann man sagen, dass wir möglichst viele Datenquellen miteinbeziehen müssen, um ein vollständiges Abbild der Verteilnetze zu erstellen. Den größten Teil dieser Quellen machen die bestehenden Software-Systeme beim jeweiligen Verteilnetzbetreiber aus: Geo-Informationssystem (GIS), Betriebsmittelinformationssystem (BIS), ERP, SCADA, usw.

Mit dem zunehmenden Einsatz von Smart Metern werden auch die Meter-Data-Managementsysteme (MDM) relevanter, um den aktuellen Netzzustand besser einschätzen zu können. Für den digitalen Zwilling können MDM dabei weitere wertvolle Informationen über die Netzteilnehmer liefern.

Letztendlich gilt: Wir brauchen eine enorme Vielfalt an Daten; Schaltzustände, Assetdaten, technische Parameter, Informationen zur Einspeisung und viel mehr. Ob all diese Daten in nur einer Handvoll Systeme oder über eine Vielzahl Systeme hinweg in lokalen Datenbanken und Excel-Tabellen verstreut sind, spielt an dieser Stelle erstmal eine geringere Rolle.
Nachdem wir die relevanten Datenquellen identifiziert haben, kommt der nächste Schritt…

Schritt #2: Daten verschneiden

Eine große Herausforderung für Verteilnetzbetreiber liegt heute darin, dass sie zwar einen enormen Fundus an Informationen zu ihrem Stromnetz besitzen, diese Daten aber häufig über mehrere IT-Systemen hinweg in isolierten Strukturen verwaltet werden. Um einen vollständigen digitalen Zwilling erstellen zu können, müssen die Daten aus unterschiedlichen Quellen zusammengeführt werden; idealerweise über API-basierte Schnittstellen. Alternativ kann z.B. auch ein File-basierter Datentransfer genutzt werden.

Worauf muss man bei der Datenverschneidung achten?

Unserer Erfahrung nach gibt es drei wesentliche Punkte, auf die man ein besonderes Augenmerk legen sollte:

  • Datenaktualität
  • Flexible Schnittstellen
  • Einheitliche Datenpflege

Gerade dadurch, dass die Nutzung von erneuerbaren Stromerzeugern und -verbrauchern auch im Privatsektor massiv steigt, verändert sich das Verteilnetz kontinuierlich. Wenn wir uns zum Beispiel etwa 25 Jahre zurückdenken, sah das Netz von 1999 höchstwahrscheinlich zu 98% genauso aus wie im Jahr davor. Das Netz von 2023 hat dagegen alleine durch die unzähligen PV-Anlagen, die in den letzten Monaten angeschlossen wurden, ein ganz anderes Bild als das Netz aus dem Jahr 2022.

Deshalb hat die Gewährleistung der Datenaktualität im Fall eines genauen virtuellen Abbilds der Stromnetze die oberste Priorität. Das bedeutet wiederum, dass nicht nur die Quellsysteme immer aktuelle Daten erhalten müssen. Auch der digitale Zwilling soll regelmäßig aktuelle Daten eingespeist bekommen – in Abhängigkeit des Anwendungsfalls sogar in Echtzeit –, damit die relevanten Berechnungen nicht auf Basis von veralteten Daten erfolgen.

Schritt #3: Datenqualität überprüfen

Aus unserer Sicht kann die finale Prüfung der Datenqualität erst dann erfolgen, wenn die Daten miteinander verschnitten sind. Denn jeder einzelne Datensatz kann in sich fehlerfrei aussehen, doch manche Unstimmigkeiten und Fehler treten erst dann an die Oberfläche, wenn alle Datensätze im Kontext eines Netzmodells betrachtet werden.

Dies bedeutet natürlich nicht, dass die Daten nicht schon vorher auf ihre Vollständigkeit und Plausibilität geprüft werden können und sollen. In diesem Sinne verfolgen wir bei der Qualitätsprüfung zwei Hauptansätze.

Es kommt vor, dass gewisse Informationen Lücken oder Fehler aufweisen oder in sich unplausibel sind. Zum Beispiel, dass für die Kapazität des Transformators vom Typ XY 100 kVa eingetragen ist, obwohl dieser Typ eine Kapazität von 1000 kVa aufweist. Solche Ungereimtheiten sollten spätestens bei der Qualitätsprüfung und im besten Fall automatisch erkannt und beseitigt werden.

Für unsere Intelligent Grid Platform (IGP) haben wir beispielsweise bestimmte Algorithmen entwickelt, die einzelne Datensätze nach eventuellen Informationslücken oder Unstimmigkeiten überprüfen. Wenn wir dasselbe Beispiel mit dem Transformator nehmen, dann schauen sich diese Algorithmen zuerst an, ob alle relevanten Datenfelder zu diesem Asset ausgefüllt sind und ob die Informationen in sich stimmig sind. Solche Ungereimtheiten wie eine Kapazität, die mit dem Typ des Betriebsmittels nicht übereinstimmt, werden somit schnell entdeckt und nach Möglichkeite automatisch bereinigt.

Das ewige Mantra der Datenqualität: Wie hoch muss sie denn sein?

„Die Qualität unserer Daten ist nicht gut; mit dem Aufbau und der Nutzung eines digitalen und rechenfähigen Netzmodells sollten wir nicht anfangen, bis sie besser wird.” Dieses Argument hört man recht oft.

Es ist in der Tat sehr häufig so, dass die Netzbetreiber, mit denen wir sprechen, sich durchaus eine viel höhere Datenqualität in ihren Systemen gewünscht hätten. Es ist jedoch noch lange kein Grund dafür, das Potenzial der Digital-Twin-Technologie nicht für sich zu erschließen.

Ganz im Gegenteil: Erst wenn alle Daten in einem einheitlichen, für alle verfügbaren und stets aktuellen Netzmodell leben, kann man ihre Qualität sukzessive und zielgerichtet verbessern.

Denn zu wissen, dass die Daten nicht auf einem optimalen Niveau sind, reicht nicht aus. Man muss auch wissen, an welcher Stelle genau ein Verbesserungsbedarf besteht, und das ist bei der enormen Menge an Daten über mehrere Systeme hinweg keine leichte Aufgabe.

Wenn die Daten jedoch miteinander verschnitten und in einen gemeinsamen Kontext gesetzt sind, können Sie ihre Qualität strukturiert bewerten, erfassen und in einem zielgerichteten Prozess verbessern.

Eine 100%-ige Datenqualität ist ein Mythos

Es mag drastisch klingen, aber so etwas wie eine perfekte Datenqualität kann es bei einem “lebendigen” Netzmodell nicht geben. Die Stromnetze verändern sich heutzutage sehr schnell. Das bedeutet wiederum, dass das Netzmodell immer wieder – idealerweise in nahezu Echtzeit – neue Daten von den Quellsystemen erhält, die womöglich auch Fehler oder Informationslücken enthalten.

In diesem Sinne müssen gewisse Verfahren und Prozesse aufgesetzt werden, um eine dauerhafte Datenqualität sichern zu können. Dabei ist es wichtig, dass diese Prozesse nicht nur aufgesetzt, sondern auch konsequent umgesetzt werden.

Ein Streben nach einer 100%-igen Datenqualität können wir vorsichtig als unrealistisch bezeichnen. Insbesondere deshalb, weil typischerweise jedes zusätzliche Prozent mühsamer umzusetzen ist. Auf Basis der Erfahrung unserer Kunden können wir jedoch sagen, dass eine 90%-ige Qualität schnell zu erreichen ist. Als mittelfristiges Ziel sind Werte von über 95% realistisch.

Low-Hanging Fruits für die Netzoptimierung

Nachdem wir die einzelnen Schritte für die Erstellung eines digitalen Zwillings der Stromnetze durchgegangen sind, lassen Sie uns kurz auf die Bereiche des Netzbetriebs eingehen, wo die Digital-Twin-Technologie unserer Erfahrung nach die schnellste positive Auswirkung hat.

Mehr Netztransparenz für fundierte strategische Entscheidungen

Grundsätzlich berichten die Netzbetreiber, dass sie dank dem digitalen Zwilling ihrer Netze ein viel besseres Verständnis darüber erhalten haben, wie das Netz heute ausgelastet ist. Ein vollständiges, lebendiges Netzmodell erlaubt es zum Beispiel, auf Abruf zu ermitteln, wie viele freie Kapazitäten es noch gibt, um weitere Erzeugungsanlagen anzuschließen.

Darauf basierend lässt sich auch die Entscheidung ableiten, an welcher Stelle das Stromnetz als nächstes ausgebaut werden muss. Denn heutzutage kann man sich auf die alten Richtwerte und fixen Planungsgrundsätze nicht mehr verlassen. Die steigende Nutzung von dezentralen Stromerzeugern und -verbrauchern macht die Identifikation von kurzfristigen Maßnahmen zur Erhöhung der Netzkapazitäten als auch die Entwicklung von Zielnetzen deutlich anspruchsvoller.

Wenn man allerdings mit einer guten Datengrundlage arbeitet, bei der man möglichst viele Informationen mit einbeziehen kann, lässt sich auch eine viel umfangreichere und feinere Datenanalyse für Zukunftsprognosen durchführen. Dadurch können die Netzbetreiber nicht nur einen sicheren Netzbetrieb in der Zukunft gewährleisten, sondern auch finanzielle Ressourcen einsparen, indem sie fundierte Investitionsentscheidungen treffen. Zum Beispiel, um Netzbereiche bereits heute zu stärken, die erst in zwei Jahren kritisch werden.

Digitalisierung und Automatisierung von Prozessen

Darüber hinaus ermöglicht ein digitaler Zwilling Prozessdigitalisierung und Prozessautomatisierung auf dem Niveau, das ohne ein vollständiges und viel wichtiger – einheitliches Netzmodell gar nicht erreichbar ist.

Ein einfaches Beispiel: Die Anschlussprüfung. Eine Automatisierung der einzelnen Schritte wie die Ermittlung von möglichen Anschlussvarianten oder Netzverträglichkeitsprüfungen setzt voraus, dass man bestimmte Netzsimulationen ebenfalls automatisiert durchführen kann.

Das bedeutet wiederum, dass die Grundlage dafür – ein rechenfähiges digitales Netzmodell, das stets aktuell ist – bereits vorliegt und keine manuelle Zusammenführung von Daten erfordert. Denn sobald es einen manuellen Input gibt, ist es per definitionem keine Automatisierung mehr. Um so ein (rechenfähiges + digitales + stets aktuelles) Netzmodell überhaupt zu entwickeln, wird man sich unweigerlich der Digital-Twin-Technologie bedienen müssen.

Fazit: Eine Datengrundlage für alle Entscheidungen im Netzbetrieb

Vielleicht kennen Sie es auch: Eine Abteilung erstellt für sich lokal ihr eigenes Netzmodell auf Basis von Data Master System, um zum Beispiel Anschlussprüfungen durchzuführen; eine andere Abteilung macht vielleicht ein paar Monate später das Gleiche für die Zielnetzplanung. Und so sind schon mal zwei ganz unterschiedliche Ausführungen entstanden, die außerdem noch lokal im Computer “leben”.

Oder man hat zwei Data Master Systeme, die für unterschiedliche Zwecke eingesetzt werden. Im Idealfall sollen diese Systeme parallel gepflegt werden, damit alle Mitarbeiter auf derselben Datengrundlage arbeiten können. Die Realität sieht jedoch häufig ganz anders aus.

Mit einem digitalen Zwilling hat man dagegen eine einheitliche Entscheidungsgrundlage. Das Netzmodell steht online und dementsprechend in nur einer Ausführung jedem Mitarbeiter jederzeit zur Verfügung. So kann es sich dauerhaft immer wieder aktualisieren, wenn es Veränderungen gibt.

Damit werden alle Entscheidungen, die der Netzbetreiber im Zusammenhang mit der Gewährleistung eines sicheren Netzbetriebs treffen muss, auf der für alle Beteiligten gleichen Datenbasis getroffen.

Dieses Projekt wird im Zuge des Renewable-Energy-Solutions-Programms der Exportinitiative Energie des Bundesministeriums für Wirtschaft und Klimaschutz gefördert.

Deutsche Energie-Agentur (dena)

Die Deutsche Energie-Agentur (dena) ist ein Kompetenzzentrum für angewandte Energiewende und Klimaschutz. Die dena betrachtet die Herausforderungen einer klimaneutralen Gesellschaft und unterstützt die Bundesregierung beim Erreichen ihrer energie- und klimapolitischen Ziele. Seit ihrer Gründung im Jahr 2000 entwickelt die Agentur Lösungen, setzt diese in die Praxis um und bringt Partner aus Politik, Wirtschaft, Wissenschaft und allen Teilen der Gesellschaft zusammen – national wie international. Die dena ist eine Projektgesellschaft und ein öffentliches Unternehmen im Bundeseigentum. Gesellschafter sind die Bundesrepublik Deutschland und die KfW Bankengruppe.
www.dena.de

Exportinitiative Energie

Mit dem Ziel, deutsche Technologien und Know-how weltweit zu positionieren, unterstützt die Exportinitiative Energie des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) Anbieter von klimafreundlichen Energielösungen bei der Erschließung von Auslandsmärkten. Im Fokus stehen hierbei die Bereiche erneuerbare Energien, Energieeffizienz, intelligente Netze und Speicher sowie auch Technologien wie Power-to-Gas und Brennstoffzellen. Das Angebot richtet sich insbesondere an kleine und mittlere Unternehmen und unterstützt die Teilnehmenden durch Maßnahmen zur Marktvorbereitung sowie bei der Marktsondierung, -erschließung und -sicherung.
www.german-energy-solutions.de

Renewable-Energy-Solutions-Programm (RES-Programm)

Mit dem RES-Programm unterstützt die Exportinitiative Energie des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) deutsche Unternehmen der Erneuerbare-Energien- sowie Energieeffizienz-Branche bei der Erschließung neuer Absatzmärkte. Im Rahmen des Programms werden Referenzanlagen in einem Zielmarkt errichtet und mit Unterstützung der Deutschen Energie Agentur (dena) öffentlichkeits- und werbewirksam vermarktet. Durch Informationsvermittlung sowie Schulungsaktivitäten wird die Nachhaltigkeit des Markteintritts gefördert und die Qualität klimafreundlicher Technologien aus Deutschland demonstriert.
www.german-energy-solutions.de/res-programm.html