Fachartikel für DNV GL, 2016, PV-Magazine
Solar-Kurzfristprognosen: Quantensprung dank Satellitendaten
Für Übertragungs- und Verteilnetzbetreiber sind präzise Vorhersagen von Solarstromerträgen ein wichtiger Wirtschaftsfaktor. Nur so lassen sich Verbrauch und Erzeugung im Netz ausbalancieren und Bestpreise in der Direktvermarktung erzielen. Die gängigen Solar-Kurzfristprognosen schätzen den Energieertrag jedoch tendenziell zu hoch ein. Die Hauptursache hierfür liegt darin, dass Wolken von den traditionellen Wettermodellen nur schlecht erfasst werden. Da die Prognosen für Solarerträge aber überwiegend auf IT-gestützten numerischen Wettervorhersagen (NWP) basieren, sind ungenaue Ergebnisse vorprogrammiert. Hier setzt eine Forschungsreihe an, die geostationäre Satellitendaten in Wettermodelle einbindet, um Wolken besser aufspüren zu können. Die von DNV GL entwickelte innovative Methode ist inzwischen marktreif und wird erfolgreich in einem kroatischen Großprojekt mit rund 1.200 Solarstromanlagen eingesetzt.
Bis zu acht Minuten brauchen Photonen, bis sie von der Sonne in die Erdatmosphäre gelangen. Dieser Prozess ist so gut erforscht, dass sich die verfügbare Sonnenstrahlung für jede beliebige geografische Koordinate weltweit errechnen lässt. In den verbleibenden Bruchteilen einer Sekunde, die die Reise dann bis zum Erdboden dauert, passiert eine Menge: Hierzu zählen Absorption der Strahlung durch verschiedene Spurengase, atmosphärische Streuung des Lichts und schließlich Reflexion durch die Wolken. Nur ein Teil der Strahlung findet seinen Weg direkt zum Solarmodul, der andere Teil, der quasi über Bande durch die Atmosphäre reist, nennt sich diffuse Strahlung. Diese kann zwar immer noch in Strom umgewandelt werden, ihr Ertrag ist aber deutlich geringer. Umso wichtiger für Stromhändler und Netzbetreiber, die Wolkenbildung genau vorhersagen zu können. Wenn man wissen will, warum moderne, hochkomplexe Wetterprognosen bei bedecktem Himmel an ihre Grenzen kommen, lohnt es sich, einen Blick auf die gängigen Modelle zu werfen. Ihre räumliche Auflösung ist schlichtweg zu grob, um kleinräumige Wolken wie Nebel, Hochnebel, Schauer und Gewitter zuverlässig modellieren zu können.
Versuchsreihe mit Satellitendaten
Im Oktober 2014 startete DNV GL daher eine Versuchsreihe im niederländischen Utrecht. Ziel war es, herauszufinden, inwieweit Daten von Satelliten die Solarprognosen verfeinern würden. Die Tests fanden über zehn Monate von Oktober bis Juli auf einem 40 mal 40 Kilometer großen Gebiet statt. Der Standort wird vom Königlich-Niederländischen Meteorologischen Institut, kurz KNMI, betrieben und bot den Vorteil, dass die verschiedenen Strahlungskomponenten alle zehn Minuten gemessen wurden und die Daten frei verfügbar waren. Im Fokus stand die Produktion von vier polykristallinen Solarmodulen mit einem Nennwert von insgesamt 3,4 Kilowatt. Die Versuche wurden sowohl mit Satelliteninformationen („assimiliert“) als auch ohne („nicht assimiliert“) durchgeführt. Für die Forschungsreihe nutzte unser Team einen der weltweit modernsten geostationären Wettersatelliten. Der Meteosat-10 zählt zur zweiten Generation seiner Reihe und ist seit 2013 im Einsatz. Aus einer Höhe von 36.000 Kilometern scannt er die Erde alle 15 Minuten in zwölf Kanälen, die von sichtbarem Licht bis zum Infrarotspektrum reichen.
Exzellente Auflösung meteorologischer Parameter
Die riesigen Datenmengen, die Meteosat-10 dabei erfasst, werden zunächst qualitativ, sprich: als Bild, betrachtet. Mittels dieser Aufnahmen sind die Meteorologen in der Lage, genau vorauszusagen, welche Wolkenarten sich bilden werden. Um die Informationen für Wettermodelle nutzen zu können, müssen sie allerdings quantitativ ausgewertet werden. Hier kommt die Software Optical Cloud Analysis (OCA) ins Spiel, die die Mikrophysik der Wolken in Computerinformationen umrechnet. Das Programm erfasst die Konsistenz der Wolke – Wasser oder Eis –, die Größe ihrer Partikel, ihre Ober- und Untergrenze sowie den Durchmesser in Metern. Diese Daten werden dann in das Wettermodell übertragen.
Um die verschiedenen Strahlungskomponenten zu modellieren, setzten wir auf die Open-Source-Software WRF (Weather Research and Forecasting). Zweimal täglich, mittags und um Mitternacht, fütterte das DNV GL Team das Modell mit unterschiedlichsten Randbedingungen wie Temperatur, Feuchtigkeit, Druck, Wind und globaler Strahlung aus dem weltweiten Wettervorhersagesystem GFS. Die räumliche Auflösung betrug 3,5 Kilometer, die zeitliche Frequenz, wie gesagt, zehn Minuten und der Prognosehorizont 48 Stunden. Auch topografische Faktoren wie Wälder und Gewässer im Prognosegebiet wurden genau modelliert. So erzielten wir eine erheblich bessere Auflösung der meteorologischen Parameter als durch das reine GFS-Modell. Ein Vergleich mag dies verdeutlichen: Der qualitative Unterschied entspricht in etwa dem zwischen einem Röhrenfernseher und 3D-fähigem HDTV.
Fehlerquote verringert sich signifikant
Die Vorhersagen wurden nach zwei Kriterien evaluiert: dem mittleren absoluten Fehler (MAF) und dem mittleren quadratischen Fehler (MQF), wobei nur die Tageswerte betrachtet wurden. Die Tabelle (Abbildung 1) zeigt die Werte für die Intraday-Vorhersage von 0 bis 24 Uhr für den 00 UTC-Lauf sowie für die Day-ahead-Vorhersage von 12 Uhr bis 12 Uhr des Folgetages für den 12 UTC-Lauf. In Utrecht verringerte sich der mittlere absolute Fehler bei den Intraday-Messungen dank Satellitendaten von 12,2 auf 8,9 Prozent. Überraschenderweise galt dies auch für die Day-ahead-Prognose, die in der Regel ungenauer ist. Hier sank der MAF von 15,8 auf 11,1 Prozent – die Ausgangsposition hatte sich dank Satellitendaten so sehr verbessert, dass dies auch noch zwei Tage später spürbar war. Bemerkenswert ist zudem, dass DNV GL schon an einem Einzelstandort wie dem Utrechter Testgebiet beeindruckende Ergebnisse erzielen konnte. Die Prognosemethode ist mittlerweile marktreif und wird von einem kommerziellen Anbieter in Kroatien eingesetzt, dessen Portfolio rund 1.200 Solarstromanlagen umfasst. Aufgrund der geografischen Verteilung stellt sich hier ein Ausgleicheffekt ein, der die Fehlerquoten noch einmal signifikant um bis zu drei Prozent senkt. Gerade sehr kleine Wolken, die in der Regel nach Kaltlufteinbrüchen entstehen, sind für Meteorologen schwer auszumachen und führen zu fehlerhaften Prognosen. Bei großen Portfolios wird dies jedoch problemlos kompensiert.
Weihnachtspräsent für Stromhändler
Dass Satellitendaten eine große Bereicherung für Solarprognosen sind, zeigte sich besonders deutlich in der Weihnachtszeit 2014. Traditionell ist dies die Zeit der Überproduktion mit einem hohen Anteil an Windenergie und geringer Nachfrage, da viele Industriebetriebe geschlossen sind. Dies führt zu niedrigen, teils sogar negativen Strompreisen am zentraleuropäischen Spotmarkt für Energie (EPEX Spot). Die von DNV GL entwickelte Prognosemethode könnte die Direktvermarkter dabei unterstützen, in dieser Zeit Verluste zu vermeiden. Die Ergebnisse der Zeitreihenanalyse illustrieren dies: Mit Ausnahme des 27. Dezembers wurde die Solarstromproduktion zwischen den Jahren mit einer sehr viel höheren Genauigkeit prognostiziert als ohne Satellitendaten – oder als wenn man diese aus dem tatsächlichen Energieertrag extrapoliert hätte. (siehe Abbildung 2).
Positive Nebeneffekte
Unsere Versuchsreihe hielt indes noch weitere Überraschungen bereit. Mit Hilfe der Satellitendaten ließen sich auch Schnee und Sandstürme besser überwachen – sogar nachts, wenn die Sonne nicht schien. Fällt Schnee auf die Solarmodule, beeinträchtigt dies die Stromproduktion. Auch an sonnigen Tagen, die zum Skifahren einladen, liefern schneebedeckte Photovoltaikanlagen keine Erträge. Um Schnee ermitteln zu können, benötigen Prognoseunternehmen jedoch häufig einen Tag – ein viel zu langer Zeitraum für Vermarkter von Solarstrom. Gerade bei großen Anlagen können die Verluste in solchen Fällen nämlich immens sein. Die Erklärung für die schlechte Sichtbarkeit des Schnees: Da er aus großen Eispartikeln besteht, ist seine Reflektivität im nah-infraroten Kanal sehr gering. Auf dem Satellitenbild, das in den Schweizer Alpen aufgenommen wurde, erscheint der Schnee, den das menschliche Auge als weiße Fläche wahrnimmt, jedoch dunkel und hebt sich so von den weißen Wolken ab (siehe Abbildung 3). Meteorologen vergleichen das Phänomen des „dunklen Schnees“ gern mit Hart-Toffees: Die braune Oberfläche der Karamellbonbons hat eine sehr niedrige Reflektivität, schlägt man sie mit einem Hammer in Stücke, zerfallen sie in viele kleine weiße Partikel, und die Reflektivität erhöht sich.
Wasser hingegen verfügt stets über eine hohe Reflektivität. Die weißen Linien des Satellitenbildes zeigen niedrige Wolken in den Tälern. Da sie aus Wasser bestehen, können sie per Satellit schneller erkannt, modelliert und markiert werden. So wird Schnee bereits nachts wahrgenommen, und die Information kann in die Intraday-Vorhersage einfließen. Stromhändler können ihre Pläne und Strategien folglich schon morgens korrigieren, bevor sie an den EPEX-Spot-Markt gehen, und erzielen so höhere Umsätze.
Im März 2014 beobachteten wir zudem höhere Staubwolken, die die Photovoltaikleistung ebenfalls beeinträchtigen. Dank der Satellitenvorhersagen konnten die Verluste durch erhöhte Streuung hier besser prognostiziert werden. Auch bei der Überwachung von Nebel leisteten die Satellitenbilder gute Dienste. Nun steht das Forscherteam vor einer weiteren Herausforderung: Bislang können weder Satelliten noch Wettermodelle Aufschluss darüber geben, wann genau sich der Nebel auflöst. Bis die Prognosen auch hier verbessert werden können, ist es aber nur noch eine Frage der Zeit.